Une Surabondance de Désinformation avec GPT-5
Il y a un peu plus d’un mois, OpenAI a lancé son très attendu modèle de langage GPT-5. Depuis son arrivée, il est accusé de produire une quantité étonnante de fausses informations.
Les Révélations des Experts
Des experts en intelligence artificielle, comme ceux du Walter Bradley Center de la Discovery Institute, ainsi que des utilisateurs frustrés sur Reddit, soulignent que les déclarations d’OpenAI sur le fait que GPT-5 possède une intelligence de niveau doctorat devraient être prises avec précaution. Ces avis soulignent qu’il y a des erreurs flagrantes dans les informations fournies par le modèle.
Une Expérience Partagée sur Reddit
Un utilisateur de Reddit a partagé sa découverte que GPT-5 semblait produire des informations incorrectes sur des faits de base dans plus de la moitié des cas. Cela soulève une question cruciale : combien d’autres hallucinations ont échappé à son attention sans vérification des faits ? Ce phénomène, qualifié d’hallucination dans le langage des IA, désigne le fait que ces systèmes s’avèrent prétentieux mais souvent trompeurs.
Une Problématique Générale des IA
Si ce problème n’est pas exclusif à ChatGPT, le dernier modèle d’OpenAI semble particulièrement enclin à produire des inexactitudes. En effet, OpenAI soutient que GPT-5 hallucine moins que ses prédécesseurs, mais cette affirmation est mise en doute par de nombreux utilisateurs.
Explication d’OpenAI
Dans un récent article, la firme a tenté d’expliquer pourquoi ces erreurs se produisent. Selon OpenAI, les méthodes d’évaluation actuelles compliquent la situation. Elles encouragent les modèles à deviner au lieu d’admettre une incertitude, ce qui peut les amener à produire de fausses réponses, même lorsque des réponses précises sont disponibles.
Un Exemple Flagant d’Hallucination
Lors d’une conversation, un utilisateur a demandé des infos sur le produit intérieur brut (PIB) de divers pays, et a reçu des chiffres erronés, parfois doublant les valeurs réelles. Par exemple, la Pologne a été donnée avec un PIB largement supérieur aux 979 milliards de dollars mentionnés par le FMI. Une affirmation du président polonais sur l’économie du pays pourrait avoir joué un rôle dans cette confusion, mais cela reste à vérifier.
Les Réflexions de l’Utilisateur
L’utilisateur a exprimé des doutes sur la fiabilité du modèle : combien de fois a-t-il accepté des informations incorrectes sans les vérifier ? Cette réalisation ouvre un débat important sur la responsabilité personnelle face à l’utilisation de l’IA.
Des Expérimentations Réalisées
Gary Smith du Walter Bradley Center a également mené des expériences simples, affirmant que GPT-5 ne possédait pas l’expertise qu’il prétendait. Dans ces tests, il a posé des questions sur des sujets divers, allant des jeux jusqu’à la finance, et les réponses sont souvent déconcertantes.
Une Autre Tentative de Compréhension
En tentant de demander une image d’un opossum avec des parties du corps étiquetées, les réponses étaient à la fois imparfaites et souvent hilarantes. Au lieu d’une image correcte, il a reçu une illustration complètement erronée. Cela soulève la question de l’exactitude des représentations générées.
Un Test Comparable
Nous avons également réalisé un test similaire avec GPT-5, demandant une image d’un groupe avec des parties du corps étiquetées. Les résultats étaient si absurdes qu’ils renforce l’idée que le modèle ne respecte pas les normes de connaissance qu’il prétend avoir.
Conclusion
Il apparaît clair qu’après ce lancement, GPT-5 n’est pas l’intelligence de niveau académique qu’OpenAI a promue. L’important est de rester vigilant et de vérifier les faits, plutôt que de se fier aveuglément aux réponses d’un chatbot.
FAQ
Qu’est-ce qu’une hallucination dans le contexte de l’IA ?
Les hallucinations dans le contexte de l’IA se réfèrent à la production de fausses déclarations par le modèle, où il affirme des faits qui n’existent pas ou qui sont erronés.
Pourquoi GPT-5 produit-il tant d’erreurs ?
Cela peut être attribué à la manière dont les modèles sont entraînés, où ils sont souvent incités à deviner des réponses même lorsqu’ils ne sont pas sûrs.
Quelle est la différence entre GPT-5 et ses prédécesseurs ?
Bien qu’OpenAI affirme que GPT-5 commet moins d’hallucinations que les modèles prédécesseurs, de nombreux utilisateurs de l’IA contestent cette affirmation à travers leurs expériences.
Comment vérifier les informations fournies par un chatbot ?
Il est conseillé de toujours croiser les données avec des sources vérifiées et de ne pas se fier uniquement aux réponses générées par le modèle, en particulier sur des sujets critiques.
Quelles sont les implications de dépendre des chatbots pour les informations ?
S’appuyer uniquement sur des chatbots pour obtenir des informations peut mener à des malentendus et à la diffusion de fausses données, d’où l’importance d’une approche critique et de la vérification des faits.
