Intelligence Artificielle

L’IA de recherche de Google affirme qu’on peut faire fondre des œufs : une révélation qui fait sourire.

L'IA de recherche de Google affirme qu'on peut faire fondre des œufs : une révélation qui fait sourire.

L’IA de recherche de Google pense que l’on peut **faire fondre des œufs**. Sa source ? Ne riez pas : **ChatGPT**.

Cette nouvelle instance de désinformation générée par l’IA a été d’abord remarquée par un utilisateur de X (anciennement Twitter) nommé **Tyler Glaiel**. Ce dernier a partagé un **screenshot** montrant ce qu’il a trouvé en cherchant “peut-on faire fondre des œufs” sur Google. La réponse à cette question devrait être un « non », car effectivement, faire fondre des œufs ne peut pas se produire. Pourtant, la réponse mise en avant par Google dans son extrait de recherche affirmait le contraire.

« Oui, un œuf peut être fondu », indiquait le résultat, précisant que cela pouvait être fait en le chauffant au **micro-ondes** ou sur une **plaque de cuisson**.

Pour arriver à cette conclusion, Google semble avoir utilisé **Quora**, un site de questions et réponses bien optimisé sur les résultats de recherche. Plus tôt dans l’année, Quora a lancé un **chatbot** IA appelé **Poe**, qui permet aux utilisateurs de poser des questions et d’interagir avec plusieurs bots alimentés par IA. L’un de ces bots est en fait une version de ChatGPT. Même si Poe a été conçu comme une application autonome, il arrive que les réponses générées par ChatGPT s’affichent en haut des **articles Quora** traditionnels.

C’est exactement ce qui s’est produit dans ce cas. Bien que la réponse de l’IA ait depuis été corrigée, le forum Quora intitulé « Peut-on faire fondre un œuf ? » avait fourni une réponse inexacte, indiquant que « oui, un œuf peut être fondu » et que la façon la plus courante de le faire serait de le chauffer au micro-ondes ou sur une plaque. C’était manifestement faux et n’avait pas été vérifié par un humain. Cependant, étant donné la bonne **réputation de Quora**, Google a intégré cette information erronée dans son extrait mis en avant.

A lire :  Démonstration d'Intelligence Artificielle de Google : Un Échec Retentissant

La situation est d’autant plus préoccupante que lorsque nous avons testé la même recherche via le système de recherche intégrant l’IA de Google, **Search Generated Experience** (SGE), nous avons obtenu une réponse tout aussi incorrecte. En recherchant « peut-on faire fondre des œufs » sur SGE, l’IA a affirmé de manière similaire que « oui, un œuf peut être fondu en le chauffant au micro-ondes ou sur une plaque de cuisson ». Cela constitue une grossière confusion entre **coagulation** et **fusion** des œufs.

Heureusement, depuis que l’on a découvert cette bourde commune entre Quora et Google, les fautes ont été modifiées. Désormais, la réponse de Poe mentionne correctement « non, vous ne pouvez pas faire fondre un œuf dans le sens traditionnel du terme », même si l’ancienne réponse erronée persiste dans l’extrait de recherche. Le forum Quora ne revient plus en tête des résultats ; à présent, un article **sur l’erreur de Google concernant les œufs**, rédigé par **Benj Edwards d’Ars Technica**, s’affiche comme le premier résultat.

Malgré tout, la situation reste amusante et absurde. Pendant un certain temps, l’extrait de recherche standard de Google était encore trompeur. Edwards a fait remarquer que, pour référence, « non, les œufs ne peuvent pas être fondus ». Au lieu de citer cette affirmation directe, l’extrait de Google a commencé à reproduire la phrase « la façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une plaque ou d’un micro-ondes ». Google semblait se référer à sa propre **désinformation**, qui n’était en réalité qu’une adaptation d’une autre hallucination d’IA. Pas simple, n’est-ce pas ?

A lire :  Le Public de SXSW Accueille Froidement un Discours Sur les Merits de l'IA

Cependant, cette anomalie a également été corrigée, et Google Search cite maintenant la mise en garde d’Edwards : « juste pour référence ». De plus, SGE informe désormais que « vous ne pouvez pas faire fondre des œufs dans le sens traditionnel car ils sont composés d’eau, de protéines, de graisses et d’autres molécules ». Mieux vaut tard que jamais.

En contactant Google, un porte-parole a souligné que les algorithmes de la société, y compris celui de SGE, sont conçus pour mettre en avant du contenu de qualité. Cependant, il a reconnu que de mauvaises sources pouvaient parfois passer à travers les mailles du filet.

« Comme toutes les expériences basées sur des modèles linguistiques avancés, l’IA générative dans la recherche est expérimentale et peut faire des erreurs, y compris refléter des inexactitudes présentes sur le web », a-t-il expliqué par e-mail. « Lorsque de telles erreurs surviennent, nous tirons des enseignements et améliorons l’expérience pour les futures requêtes, comme cela a été fait dans ce cas. Plus largement, nous concevons nos systèmes de recherche pour mettre en avant des informations fiables et de qualité. »

Néanmoins, le porte-parole n’a pas abordé le fait que l’inexactitude regrettable concernant les œufs provenait d’une absurdité générée par ChatGPT.

Bien que la question de savoir si l’on peut faire fondre des œufs ne semble pas extrêmement critique, le **cycle de désinformation** entre systèmes IA concurrents, sans supervision humaine, est inquiétant. Imaginez si l’intégration de ChatGPT de Quora avait fabriqué des faits sur des leaders politiques ou des événements historiques, ou mentionné des informations erronées sur des questions médicales ou financières, et que l’IA de Google les ait simplement reformulées. Google n’a pas un excellent historique récent pour assurer que ses présentations sur les événements passent sans désinformation générée par l’IA, ce qui mérite réflexion.

A lire :  Apple Réserve ses Fonds : OpenAI Rémunéré en Visibilité

En résumé, deux leçons à retenir ici : 1. vous ne pouvez définitivement pas faire fondre des œufs, et 2. ne croyez pas tout ce que l’IA vous dit, même si elle provient d’une grande entreprise technologique. Il est indéniable que les extraits mis en avant de Google sont pratiques, et si SGE pouvait être digne de confiance, cela pourrait apporter une réelle valeur à l’utilisateur ordinaire de Google. Cependant, pour l’instant, les deux produits de Google peinent à suivre un environnement internet de plus en plus saturé de contenu synthétique. Peut-être qu’en recopiant les résultats des autres, les différentes intégrations IA finiront par s’auto-cannibaliser.

Plus sur Google et l’IA : A mesure que la fumée assombrit le ciel, la nouvelle IA de Google donne des informations complètement inexactes sur la qualité de l’air

FAQ

Quelles sont les conséquences de la désinformation générée par l’IA ?

La désinformation peut entraîner des malentendus graves, affectant des décisions personnelles, politiques ou de santé.

Comment vérifier l’exactitude des informations fournies par les IA ?

Il est important de toujours croiser les données avec des sources fiables, idéalement humainement vérifiées.

Quelles sont les étapes pour améliorer l’IA de recherche ?

Les entreprises doivent constamment optimiser leurs algorithmes et intégrer des vérifications humaines plus rigoureuses dans leurs systèmes.

L’IA peut-elle apprendre de ses erreurs de manière autonome ?

Bien que les IA puissent être programmées pour apprendre des erreurs, elles dépendent souvent de mises à jour manuelles pour corriger de fausses informations.

Pourquoi les systèmes d’IA sont-ils parfois peu fiables ?

Les IA s’appuient sur des données collectées sur Internet, ce qui peut inclure des informations fausses ou non vérifiées.