De l’annonce triomphale au rétropédalage
Un cadre d’OpenAI a clamé que ChatGPT avait réalisé une percée mathématique. Quelques heures plus tard, l’emballement retombait: la prouesse n’en était pas une. L’épisode, parti d’un message sur X rapidement supprimé, illustre une tendance lourde de l’industrie: des annonces flamboyantes qui s’avèrent, à l’examen, beaucoup moins extraordinaires.
Un tweet qui enflamme, puis s’efface
Kevin Weil, vice‑président chez OpenAI, a affirmé que GPT‑5 avait « trouvé des solutions » à dix problèmes d’Erdős jusque‑là non résolus et avancé sur onze autres. Présentée comme une démonstration d’« intelligence niveau doctorat », la nouvelle a fait grand bruit… jusqu’à ce que des spécialistes vérifient les détails et découvrent que le modèle s’était surtout contenté de retrouver des travaux déjà publiés.
Ce que recouvrent vraiment les problèmes d’Erdős
Les « problèmes d’Erdős » désignent un ensemble de conjectures difficiles proposées par le mathématicien Paul Erdős. En résoudre une est un événement pour la communauté. Mais il y a un piège sémantique: les listes qui signalent un problème « ouvert » indiquent parfois simplement qu’aucune solution n’est connue de l’auteur du site… et non qu’aucune solution n’existe. Autrement dit, « ouvert » ne signifie pas « forcément irrésolu ».
Le rappel à l’ordre des spécialistes
Thomas Bloom, chercheur à l’Université de Manchester et responsable du site recensant ces problèmes, a rectifié publiquement: la présentation d’OpenAI était une forte exagération. Selon lui, le modèle n’a pas découvert de preuves inédites; il a surtout identifié des publications existantes qui traitaient déjà les questions concernées. Inutile, donc, de vendre cet exercice de recherche bibliographique comme une découverte majeure.
L’écosystème IA réagit: entre gêne et appel à la rigueur
Les réactions n’ont pas tardé chez les concurrents d’OpenAI. Le patron de Google DeepMind, Demis Hassabis, a qualifié l’épisode d’« embarrassant ». D’autres acteurs, comme des fondateurs de laboratoires indépendants, ont plaidé pour une validation par les pairs avant toute communication triomphale sur des « découvertes » en science. Même des voix très connues du domaine se sont fendu de traits particulièrement cinglants, soulignant à quel point l’annonce semblait prématurée.
L’hyperbole comme stratégie de lancement
Pour promouvoir GPT‑5, OpenAI met en avant des slogans ambitieux: « intelligence de niveau PhD », promesse de remplacer des catégories entières d’emplois, horizon proche d’une AGI surpassant l’humain sur presque tout. Cette rhétorique séduit, mais elle expose aussi à des retours de flamme quand la réalité ne suit pas le récit. D’autant que des comparaisons indépendantes indiquent déjà que GPT‑5 n’est pas systématiquement supérieur à GPT‑4o, selon les tâches évaluées.
Science et mathématiques: quête de crédibilité… et lignes rouges
Brandir la science dure est une façon d’asseoir la crédibilité des chatbots: l’argument « qui contesterait une avancée mesurable en maths ? » frappe fort. Certains leaders de la tech poussent la promesse plus loin, affirmant que leurs modèles découvriront de « nouvelles technologies » ou même de la « nouvelle physique ». Or, dans la pratique, de nombreux chercheurs utilisent aujourd’hui les modèles génératifs surtout comme assistants de recherche: repérer des articles, résumer une littérature, proposer des pistes déjà explorées. Prétendre à des percées autonomes demande une preuve robuste, reproductible et reconnue par la communauté. Dans l’affaire du jour, ChatGPT n’a, au fond, fait que retrouver les devoirs déjà faits par d’autres.
À retenir
- Une annonce d’OpenAI s’est avérée trompeuse: pas de solution inédite, mais des travaux existants remis en lumière.
- « Problème ouvert » ne veut pas dire « problème irrésolu »; c’est souvent un simple marqueur d’ignorance locale d’une solution.
- La communauté appelle à plus de rigueur: évaluation indépendante, relecture scientifique, traçabilité des preuves.
- Les modèles d’IA sont utiles comme outils; les présenter comme des découvreurs autonomes exige des standards de preuve élevés.
FAQ
Comment vérifier une « découverte » annoncée par une IA ?
- Exiger un article détaillant la preuve, une relecture par des pairs compétents et, idéalement, une réplication indépendante. La transparence sur les données, les prompts et les étapes de raisonnement est essentielle.
Que signifie exactement « problème ouvert » en mathématiques ?
- Cela indique qu’aucune solution n’est connue de la communauté ou de la source qui tient la liste. Ce n’est pas une garantie d’insolubilité; parfois, une solution existe déjà mais n’a pas été repérée.
Les grands modèles de langage peuvent-ils vraiment prouver des théorèmes ?
- Ils peuvent aider à esquisser des idées, retrouver des références et générer des brouillons de preuves. Mais une preuve valable doit être formellement vérifiée, idéalement par des assistants de preuve ou par des mathématiciens, avant d’être acceptée.
Quelles bonnes pratiques pour communiquer des résultats scientifiques impliquant l’IA ?
- Publier des protocoles, fournir le code et les données, solliciter une relecture par les pairs, éviter les superlatifs avant validation, et distinguer clairement « hypothèse prometteuse » de « résultat établi ».
Pourquoi ces emballements médiatiques reviennent-ils souvent ?
- La compétition féroce, les attentes des investisseurs et la quête de visibilité poussent à des messages ambitieux. Sans garde-fous scientifiques, le marketing peut prendre le pas sur la méthode, avec le risque de décrédibiliser de vrais progrès.
