Intelligence Artificielle

L’IA de recherche SGE de Google dévore les informations erronées générées par l’IA en les déclarant vraies.

L'IA de recherche SGE de Google dévore les informations erronées générées par l'IA en les déclarant vraies.

Un Échec Étonnant de l’IA de Google

Il est fascinant de constater que l’outil de recherche alimenté par l’IA de Google présente des lacunes notables, notamment en matière de géographie et d’alphabétisation. Récemment, un utilisateur de Bluesky a déclaré, avec force, que “Google est désormais mort“, partageant une capture d’écran qui affirmait qu’aucun pays en Afrique ne commence par la lettre “K”. Cette affirmation, manifestement incorrecte puisque le Kenya existe bel et bien, a mis en lumière des défaillances alarmantes de l’algorithme de recherche.

La Défaillance de Recherche: Un Exemple Choquant

Lorsque l’on interroge l’outil de recherche sur les “pays d’Afrique commençant par la lettre K“, il délivre une réponse tout à fait erronée, proclamant qu’il n’existe pas de tels pays. Ce qui aggrave la situation, c’est que cette information provient d’un article de blog, apparemment généré par l’IA, ayant pour sujet une conversation entre un utilisateur et ChatGPT. Ce blog, intitulé Emergent Mind, a véhiculé une information inexacte qui a atterri dans les résultats de recherche.

A lire :  Xcode 26.3 : Une Révolution dans l'Expérience de Développement d'Apple grâce au Codage Agentif

Il s’agit là d’une erreur regrettable de la part du moteur de recherche de Google, qui soulève de sérieuses inquiétudes quant à la qualité des matériaux générés par l’IA se frayant un chemin dans les résultats d’une des plateformes de recherche les plus utilisées au monde.

Une Incapacité à Filtrer les Informations

En cherchant à reproduire ce bug, nous avons constaté que le problème ne se limitait pas à la recherche classique de Google. La fonction SGE de Google, qui intègre l’IA, parvenait à collecter des informations trompeuses dérivées de l’article de ChatGPT et les reformulait pour les utilisateurs. Cela démontre clairement que cette fonctionnalité, tant attendue, ne parvient toujours pas à distinguer les fausses informations évidentes.

Lors de notre expérimentation demandant des “pays d’Afrique débutant par la lettre K“, SGE a répondu :

“Il n’y a pas de pays en Afrique qui commence par la lettre ‘K’. Le plus proche est le Kenya, qui commence par un son ‘K’.”

Cette réponse apparait pour le moins décevante, surtout considérant que SGE a pris pour argent comptant une information manifestement erronée.

Une Confrontation Avec d’Autres Requêtes

En poursuivant notre analyse, nous avons remarqué que lorsque nous demandions une liste des “pays en Amérique du Nord commençant par la lettre M“, SGE affichait un haut degré de confusion en fournissant une liste contenant de nombreuses inexactitudes. Voici un extrait de sa réponse :

  • Mexique : 758 249 miles carrés (correct)
  • Saint-Kitts-et-Nevis (qui n’a pas de rapport avec la lettre M)
  • El Salvador (identifié à tort)
  • Groenland (territoire dépendant)
  • États-Unis : 3 617 827 miles carrés
  • District de Columbia (n’est pas un pays)
A lire :  Microsoft Dévoile un Sac à Dos Innovant : Une Fusion Étonnante d'IA et de Capteurs.

Cette réponse montre non seulement un manque d’exactitude, mais illustre également une tendance inquiétante à puiser dans des informations douteuses.

Des Erreurs de Classifications Absurdes

En testant SGE avec des demandes telles que des pays d’Europe classés par ordre alphabétique, nous avons obtenu une autre réponse chaotique, révélatrice d’un sérieux problème d’alphabétisation :

  • Hongrie
  • France
  • Belgique
  • Albanie
  • Russie
  • Vatican (listés dans un ordre non alphabétique)

Ce type de réponse amène à se poser des questions, à savoir pourquoi une IA, censée traiter les informations de manière logique, en arrive à de telles conclusions.

La Réponse de Google

Lorsqu’interrogé, un porte-parole de Google a affirmé que l’IA est toujours en phase expérimentale. Il a noté :

“Nous avons mis en place des protections rigoureuses pour éviter les inexactitudes, mais comme toutes les expériences basées sur les LLM, l’IA générative dans la recherche peut se tromper.”

Cette déclaration illustre le caractère évolutif et encore perfectible de l’outil, néanmoins, cela soulève des inquiétudes concernant sa fiabilité dans des contextes critiques.

FAQ

Quels sont les avantages de l’IA dans la recherche de Google ?

L’IA permet d’optimiser l’expérience utilisateur en offrant des réponses rapides et en améliorant la pertinence des résultats. Cela permet également de traiter un volume élevé d’informations plus efficacement.

L’IA est-elle utilisée par d’autres moteurs de recherche ?

Oui, des entreprises telles que Bing et Yahoo intègrent également des outils d’IA pour améliorer leurs services de recherche, mais avec des résultats varient en précision.

Pourquoi la véracité des informations est-elle cruciale pour les outils de recherche ?

Une information exacte est essentielle pour permettre aux utilisateurs de prendre des décisions éclairées et pour maintenir la crédibilité des plateformes de recherche.

A lire :  Les Générateurs d'Images IA Créent des Personnages Protégés, Un Risque de Poursuites Catastrophiques

Quelles sont les prochaines étapes pour améliorer la recherche IA de Google ?

Google continue d’affiner et d’améliorer son algorithme pour réduire les erreurs et augmenter la précision des informations disponibles.

Comment puis-je aider à corriger les informations inexactes sur Google ?

Les utilisateurs peuvent signaler les résultats inappropriés ou les informations erronées via le lien de feedback de Google, ce qui aide à renforcer le système avec des données plus précises.