Intelligence Artificielle

Face à Elon Musk, un chercheur d’OpenAI réfute son affirmation sur l’AGI

Face à Elon Musk, un chercheur d’OpenAI réfute son affirmation sur l’AGI

Illustration: Tag Hartman‑Simkins / Futurism. Source photo: STR / NurPhoto via Getty Images

Depuis quelques jours, Elon Musk remet une pièce dans la machine à promesses autour de l’AGI — cette intelligence artificielle supposée dépasser l’humain sur presque tous les plans. Son chatbot Grok 5 serait, d’après lui, plus proche que jamais de ce cap mythique. Entre estimations changeantes, approbations internes très enthousiastes et piques envoyées à OpenAI, la conversation s’enflamme autant que la concurrence.

Ce que Musk avance aujourd’hui

Musk affirme que Grok 5 aurait désormais environ 10 % de chances d’atteindre l’AGI, un pourcentage qu’il dit « en hausse ». Quelques heures plus tard, il durcit encore le propos en soutenant que la prochaine version sera carrément AGI ou au moins indiscernable de l’AGI. La ligne est floue entre une probabilité prudente et une certitude annoncée, un flou qui alimente la polémique autant que l’attention médiatique.

Des promesses qui s’inscrivent dans un historique

Ce n’est pas la première fois que l’entrepreneur fixe un horizon court. En 2024, il situait l’AGI à moins de deux ans. Récemment encore, il évoquait une « chance » pour Grok 5 d’atteindre ce seuil. L’alternance entre « peut‑être » et « ce sera le cas » fait partie de sa communication, qui joue sur la tension entre ambition et fait accompli.

A lire :  Universités Recrutent des Étudiants AI pour Participer en Cours et Soumettre des Devoirs

Le relais interne chez xAI

À peine la nouvelle lancée, un employé de xAI, Aditya Gupta, s’est empressé d’appuyer l’évaluation de son patron. Ce même salarié s’était déjà fait reprendre publiquement par Musk il y a quelques mois pour avoir utilisé le terme « chercheur » plutôt que « ingénieur ». La séquence illustre la culture très verticale chez xAI, où la validation publique du discours du fondateur tient parfois lieu de méthode.

Le choc des ego avec OpenAI

La rivalité entre Musk et OpenAI est ancienne. Cofondateur en 2015, Musk a quitté l’organisation en 2018 après des désaccords stratégiques avec Sam Altman. Depuis, les échanges se font souvent à coups de critiques et de démarches judiciaires, alors que la valorisation d’OpenAI explose.

Dans cet épisode, un scientifique d’OpenAI, Gabriel Petersson (impliqué dans l’outil vidéo Sora), s’est moqué du nouveau pari de Musk, insinuant que l’intéressé avait déjà « atteint l’AGI » plusieurs fois dans ses annonces. Musk a répliqué sèchement, relançant son vieux grief autour du titre de « chercheur » versus « ingénieur ». Le débat technique se transforme à nouveau en joute d’ego, avec, en toile de fond, un affrontement commercial et idéologique.

Quand chacun définit son AGI

Le désaccord porte aussi sur le sens même d’AGI:

  • Pour Musk, c’est soit une IA plus intelligente que la personne la plus intelligente, soit une machine capable de faire tout ce qu’un humain muni d’un ordinateur peut faire. Deux formules différentes, difficiles à tester rigoureusement.
  • OpenAI décrit l’AGI comme un système très autonome surpassant les humains dans la majorité des tâches économiquement valorisées. Dans le même temps, Sam Altman admet que le terme est « pas si utile », tout en continuant à l’utiliser, signe d’un concept autant marketing que technique.
A lire :  Les Mystères des Affiches de Tatouages Générées par IA à New York

L’hyperbole ne vient pas que d’un camp

Il serait toutefois réducteur de ne pointer que Musk. OpenAI a déjà sur‑vendu des étapes: Altman a affirmé que l’AGI serait possible avec le matériel actuel, et la sortie de GPT‑5 — présentée comme un grand pas vers l’AGI, voire « généralement intelligent » — a laissé une partie des observateurs sur leur faim. Le récit de la proximité de l’AGI, chez les grands acteurs, tient souvent de la rhétorique commerciale autant que de la réalité scientifique.

Ce qu’il faut retenir

  • La promesse d’un Grok 5 frôlant l’AGI s’inscrit dans la stratégie habituelle de Musk: créer de l’élan par des annonces fortes, quitte à mélanger probabilités et certitudes.
  • La guerre de communication avec OpenAI alimente la visibilité de chacun, mais ne clarifie pas les critères concrets de l’AGI.
  • Tant que la communauté ne s’accorde pas sur des tests robustes, la « première à l’AGI » restera une course déclarative plus qu’un fait établi.

Pour aller plus loin

L’écosystème IA a multiplié les « coups » médiatiques ces derniers mois, des annonces spectaculaires aux messages vite supprimés. Derrière le bruit, la question essentielle demeure: comment mesurer, prouver et auditer l’intelligence générale au‑delà des slogans?

FAQ

Qu’est-ce que Grok et en quoi Grok 5 serait différent ?

Grok est le chatbot développé par xAI. Les futures itérations, dont Grok 5, sont censées intégrer des modèles plus grands, un apprentissage sur des données plus fraîches et des capacités de raisonnement améliorées. Concrètement, cela pourrait se traduire par de meilleures performances sur des tâches complexes, mais rien n’indique à ce stade un saut vérifié vers l’AGI.

A lire :  Nous Sommes Désolés de Vous Présenter Cet Audio de Deux IA de Google Engagées dans un Cybersexe Hautement Explicite.

Comment pourrait-on tester objectivement l’AGI ?

Il n’existe pas de test unique. On parle plutôt d’un ensemble d’évaluations: généralisation à des tâches inédites, autonomie durable sans intervention humaine, compétence multi‑modale (texte, image, audio, vidéo, action), robustesse et fiabilité sous contrainte, et capacité à apprendre continûment. L’acceptation scientifique viendrait d’une reproductibilité indépendante et d’audits externes.

Pourquoi les annonces autour de l’AGI sont-elles aussi vagues ?

Parce que la notion d’AGI est mal normalisée et qu’elle sert aussi de signal marketing. Les entreprises maximisent l’attention des médias et des investisseurs en restant élastiques dans leurs définitions, tout en se réservant une marge de manœuvre si les résultats ne suivent pas.

L’AGI représente-t-elle un risque immédiat ?

Les risques actuels sont déjà concrets: désinformation, fuites de données, biais, automatisation mal conçue. Les scénarios de risque systémique liés à une AGI très autonome sont plus spéculatifs, mais ils justifient des travaux de gouvernance, de sécurité et de régulation en amont.

Qui peut arbitrer une revendication d’AGI ?

Idéalement, un consortium mêlant équipes académiques, laboratoires concurrents, organismes de normalisation et régulateurs, avec des protocoles publics et des évaluations indépendantes. Sans ce cadre, toute proclamation restera une affirmation unilatérale difficile à vérifier.