Intelligence Artificielle

Réparer les Hallucinations : Une Menace pour ChatGPT, Selon un Expert.

Réparer les Hallucinations : Une Menace pour ChatGPT, Selon un Expert.

Les hallucinations des IA : une problématique persistance

Récemment, des chercheurs d’OpenAI ont publié un article révélant qu’ils avaient identifié la cause des “hallucinations” fréquentes des modèles d’intelligence artificielle, même parmi les plus avancés. Ces hallucinations se traduisent par des affirmations fausses, en particulier dans des outils comme ChatGPT, qui s’exprime avec une confiance trompeuse.

Optimisation pour le test

L’équipe de recherche a découvert que l’évaluation des résultats des modèles linguistiques, tels que ceux qui alimentent ChatGPT, les pousse à devenir de bons candidats d’examen. En effet, ces modèles optimisent leurs performances en choisissant parfois de faire des hypothèses lorsqu’ils ne sont pas certains d’une réponse. Bien que cette approche puisse sembler efficace dans un cadre d’examen, elle devient cruciale lorsqu’il s’agit de donner des conseils sur des sujets sensibles comme la santé ou le droit.

Le dilemme de la confiance

Les concepteurs d’IA encouragent les systèmes à deviner plutôt que de reconnaître leur ignorance. Cela peut améliorer la performance dans des tests, mais entraîne des risques importants. Par exemple, même si ChatGPT n’admettait son incertitude qu’un tiers du temps, cela pourrait entraîner un frustration chez les utilisateurs, qui préfèrent des réponses affirmatives, même si elles sont incorrectes.

Un expert en optimisation de l’IA, Wei Xing, a fait part de ses doutes concernant cette stratégie. Dans un essai pour The Conversation, il a souligné que l’industrie de l’IA ne serait pas véritablement motivée à apporter des modifications, car cela entraînerait des coûts supplémentaires considérables.

Coûts d’opération : une préoccupation cruciale

Les méthodes pour évaluer l’incertitude existent, mais l’application de ces techniques pourrait nécessiter beaucoup plus de ressources informatiques. Cela signifie que pour un système traitant des millions de requêtes chaque jour, les coûts opérationnels pourraient atteindre des niveaux alarmants. La pression financière croissante sur les entreprises d’IA, qui misent sur la scalabilité, pourrait rendre ces ajustements non viables. Actuellement, elles semblent ne pas obtenir de retour sur investissement adapté, avec des dépenses en capital énormes qui surpassent des revenus déjà modestes.

L’avenir incertain

Dans un environnement où l’on cherche à rassurer les investisseurs sur la viabilité économique des modèles d’IA à long terme, équilibrer les coûts tout en maintenant l’attrait pour les utilisateurs devient impératif. Xing a précisé que certaines solutions proposées contre les hallucinations pourraient convenir à des systèmes gérant des opérations critiques, mais les applications grand public priment actuellement dans le développement de l’IA. Les utilisateurs désirent des systèmes offrant des réponses sécures et affirmatives.

L’adoption de réponses plus prudentes pourrait pourtant nuire à l’expérience utilisateur, incitant les entreprises à persévérer dans des approches moins fiables.

Conclusion : défis à relever

Bien que l’environnement technologique continue d’évoluer, il est difficile de prévoir comment cet équilibre se réglera à long terme. Ce qui est quasiment certain, c’est que le fait de deviner demeurera toujours une option plus économique pour les entreprises. En résumé, l’étude d’OpenAI met en lumière une réalité délicate : les incitations économiques qui orientent le développement de l’IA grand public ne sont pas en phase avec la nécessité de réduire les hallucinations. Si ces dynamiques ne changent pas, cette problématique persistera.

FAQ

Pourquoi les IA hallucinent-elles ?

Les IA hallucinent en raison de leur conception qui privilégie la confiance dans les réponses plutôt que l’exactitude, leur permettant d “’optimiser leur performance selon les critères d’évaluation actuels.

Quelles solutions existent pour réduire les hallucinations ?

Des solutions passent par des normes d’évaluation qui pénalisent les erreurs ambitieuses tout en récompensant l’expression de l’incertitude, mais leur application peut augmenter les coûts.

Les utilisateurs préfèrent-ils des réponses incertaines ?

Non, les utilisateurs de technologies d’IA recherchent généralement des réponses affirmatives et décisives, même si elles sont incorrectes, ce qui pose un dilemme aux concepteurs de logiciels.

Quel est l’impact financier de ces hallucinations sur les entreprises ?

L’incapacité à réduire les hallucinations pourrait accroître les coûts opérationnels et retarder le retour sur investissement, rendant la situation encore plus difficile pour les entreprises d’IA.

Comment l’industrie de l’IA s’adaptera-t-elle à ces défis ?

Les entreprises devront trouver un équilibre entre la gestion des hallucinataires et des modèles d’IA d’un coût excessif, tout en répondant aux attentes des utilisateurs.

Quitter la version mobile