Intelligence Artificielle

Même l’IA la plus avancée a un défaut : quand elle ne sait pas, elle invente.

Même l'IA la plus avancée a un défaut : quand elle ne sait pas, elle invente.

L’intégration de l’IA dans notre quotidien

L’intelligence artificielle (IA) devient chaque jour plus présente dans nos vies. Cependant, un problème majeur persiste : l’IA a tendance à “halluciner” en fournissant des réponses incorrectes lorsque les informations lui manquent. Cette situation soulève des questions sur la fiabilité des systèmes d’IA.

La cause des hallucinations de l’IA

D’après les chercheurs, ce phénomène d’hallucination vient d’un besoin d’affirmation. Pour beaucoup de modèles d’IA, ne pas savoir une réponse ne permet pas de se projeter comme fiables. José Hernández-Orallo, professeur à l’Institut de recherche en IA de Valence en Espagne, explique que les modèles sont entraînés de manière à éviter l’incertitude. Il précise que la peur de l’échec conduit les IA à inventer des réponses, même fausses, plutôt que d’admettre leur ignorance.

Une expérience révélatrice

Pour illustrer ce problème, le journaliste Ben Fritz du Wall Street Journal a lancé une question à plusieurs modèles d’IA : à qui était-il marié ? Cette question, difficile à rechercher sur Internet, a entraîné des réponses étranges, comme l’affirmation qu’il était marié à un influenceur de tennis ou à une personne qu’il ne connaissait pas du tout. Pour ma part, avec le modèle Gemini de Google, j’ai obtenu une réponse tout aussi absurde, me disant que j’étais marié à un artiste syrien doté d’une biographie que je ne connaissais pas.

A lire :  « Une Startup Ambitieuse Prépare le Lancement de 50,000 Robots Humanoïdes d'ici 2027 »

Résoudre le problème de l’incertitude

Des chercheurs, comme Roi Cohen et Konstantin Dobler du Hasso Plattner Institute en Allemagne, ont proposé d’intervenir directement dans l’entraînement des modèles pour les sensibiliser au concept d’incertitude. Grâce à leur méthode, les IA peuvent non seulement reconnaitre quand elles ne savent pas, mais aussi donner des réponses plus précises lorsque l’information est disponible. Il est toutefois noté que même les modèles formés peuvent parfois affirmer ne pas savoir alors qu’ils ont la réponse, un peu comme un élève qui hésite à répondre.

Une avancée prometteuse

Malgré ces imperfections, les chercheurs sont optimistes. Ils estiment qu’apprendre à l’IA à gérer l’incertitude peut avoir un impact significatif, en particulier dans des domaines où la précision est cruciale. Cohen et Dobler soulignent l’importance de déployer des systèmes utiles, même si leur intelligence n’atteint pas un niveau supérieur.

Vers une meilleure communication

Des entreprises comme Anthropic intègrent déjà ce concept d’incertitude dans leurs chatbots. Un rapport du Wall Street Journal a révélé qu’un de leurs modèles, Claude, a été le seul à admettre ne pas connaître la réponse à une question donnée. Lorsqu’un test a été effectué, le chatbot a même préféré ne pas répondre, avertissant qu’il pourrait “halluciner” une réponse.

Hernández-Orallo fait également remarquer que la capacité à exprimer une incertitude pourrait renforcer la confiance des utilisateurs dans les systèmes d’IA. Selon lui, lorsqu’une personne admet ne pas savoir, cela peut créer un lien de confiance. Il note que cette approche fait souvent défaut dans la conception des modèles d’IA.

A lire :  Taylor Swift envisage des poursuites légales contre l'usage d'IA et les faux nudes.

Conclusions sur l’avenir de l’IA

En conclusion, bien que les hallucinations d’IA puissent frustrer, elles offrent également une occasion d’améliorer ces systèmes. Alors que les recherches continuent, une approche basée sur la reconnaissance de l’incertitude pourrait révolutionner notre interaction avec les intelligences artificielles.

FAQ

Quelles sont les implications des hallucinations de l’IA ?

Les hallucinations peuvent nuire à la fiabilité des informations fournies, ce qui peut avoir des conséquences dans des domaines comme la santé ou la finance.

Comment les chercheurs identifient-ils les hallucinations d’IA ?

Ils mènent des tests en posant des questions spécifiques et en examinant les réponses fournies par différents modèles d’IA.

Quel est l’impact de la formation sur l’incertitude ?

Former les modèles à exprimer l’incertitude peut les rendre plus crédibles et améliorer l’expérience utilisateur.

Les hallucinations peuvent-elles être complètement éliminées ?

Bien qu’il soit peu probable qu’elles disparaissent entièrement, des méthodes d’entraînement progressives peuvent réduire leur fréquence et leur impact.

Quel rôle joue le contexte dans les réponses de l’IA ?

Le contexte est essentiel. Un modèle d’IA peut fournir des réponses précises si la question est dans son domaine de compétence durant l’entraînement.