Intelligence Artificielle

OpenAI Reconnaît que Son Nouveau Modèle Fait Toujours des Hallucinations Plus d’un Tiers du Temps.

OpenAI Reconnaît que Son Nouveau Modèle Fait Toujours des Hallucinations Plus d'un Tiers du Temps.
</div>

<p>
    <figcaption class="article-featured-image-caption">
         <em>Image : Joel Saget / AFP via Getty / Futurism</em>     </figcaption>
</p>
    </div>

La Fiabilité des Modèles d’Intelligence Artificielle d’OpenAI

Il est préoccupant de constater que, si une personne de votre entourage ment un certain pourcentage du temps lors de vos questions, cela pourrait sérieusement nuire à la relation. Cela soulève un problème similaire concernant un modèle d’intelligence artificielle, en particulier le dernier modèle d’OpenAI.

Les Problèmes de Fiabilité de GPT-4.5

OpenAI a récemment reconnu que son modèle GPT-4.5 a un taux de 37 % de « hallucinations », un terme qui désigne le fait de fournir des informations erronées tout en les présentant comme des vérités. L’entreprise a annoncé cette statistique avec l’aide de SimpleQA, un outil de référence interne conçu pour évaluer la véracité des réponses.

La Constatation Effarante

Ce taux signifie qu’un tiers des réponses fournies par ce modèle, qui appartient à une entreprise évaluée à des centaines de milliards de dollars, est faux. Cela soulève des interrogations sur la capacité de ce modèle à offrir des informations fiables.

Une Tentative de Dédramatisation

Face à cela, OpenAI essaie de mettre un spin positif sur cette problématique, affirmant que son modèle GPT-4.5 hallucine moins souvent que certains de ses précédents modèles. Par exemple, le modèle GPT-4o, qui est censé avoir des capacités de raisonnement améliorées, hallucine à 61,8 % selon les tests effectués avec SimpleQA. Il semble que le modèle o3-mini, une version moins coûteuse, montre un taux d’hallucination encore supérieur, à 80,3 %.

A lire :  La Société Derrière les Auteurs AI Fictifs de Sports Illustrated Vient de Perdre l'Intégralité du Magazine

Une Problématique Générale dans l’Industrie de l’IA

Cependant, cette issue ne se limite pas uniquement à OpenAI. Des études indiquent que même les meilleurs modèles d’IA n’émettent des réponses sans erreurs qu’environ 35 % du temps, comme l’a souligné Wenting Zhao, étudiant au doctorat à Cornell. Dans une interview, il a précisé que la principale conclusion de leurs recherches est que l’on ne peut pas encore faire confiance aux résultats des générations de modèles.

Réflexion sur l’Avenir de l’IA

Il est étonnant de voir qu’une entreprise attirant des investissements massifs pour des produits rencontrant de tels problèmes puisse continuer à prospérer. Cela soulève des questions sur l’avenir des systèmes d’IA qui, bien qu’ils prétendent rivaliser avec l’intelligence humaine, persistent à donner des réponses incorrectes.

Alors que les performances des modèles d’OpenAI semblent atteindre un plateau, l’entreprise cherche désespérément à rediriger l’enthousiasme du public vers des directions prometteuses, comme celles imaginées lors du lancement de ChatGPT. Toutefois, pour en arriver là, il faudra probablement des avancées notables, plutôt que des améliorations marginales.

En résumé

L’impact des hallucinogènes sur l’IA soulève de nombreuses questions et interpelle les attentes que nous avons envers ces technologies, qui semblent encore loin d’atteindre une fiabilité totale.

FAQ

H4: Qu’est-ce qu’une “hallucination” dans le contexte de l’IA?

Une hallucination en IA fait référence à la génération de réponses incorrectes ou fictives que le modèle présente comme des faits.

H4: Comment OpenAI teste-t-il ses modèles?

OpenAI utilise des outils comme SimpleQA pour évaluer la véracité des réponses de ses modèles d’IA.

A lire :  L'outil de Gmail de Google génère des emails fictifs.

H4: À quoi sert le modèle GPT-4.5?

GPT-4.5 est un modèle de langage conçu pour générer des réponses textuelles basées sur des entrées données, mais il souffre d’un taux d’erreur significatif.

H4: Quels sont les impacts de ces hallucinations sur l’usage pratique de l’IA?

Les utilisateurs peuvent perdre confiance dans les systèmes d’IA si ces derniers fournissent régulièrement des informations erronées, ce qui limite leur utilité.

H4: Quelles sont les perspectives d’amélioration des modèles d’IA?

L’industrie de l’IA doit travailler sur des avancées technologiques majeures pour réduire le taux d’hallucination et améliorer la fiabilité des outputs des modèles.