Intelligence Artificielle

Des Proverbes Inexistants : L’IA de Google Invente des Explications Sur des Dictons Imaginaires

Des Proverbes Inexistants : L'IA de Google Invente des Explications Sur des Dictons Imaginaires

Une Curiosité Linguistique

Avez-vous déjà entendu l’expression « On ne peut pas lécher un blaireau deux fois » ? C’est peu probable, car cette phrase n’existe pas. Pourtant, des internautes ont récemment découvert que l’intelligence artificielle de Google semble avoir imaginé des significations pour des expressions fictives. En effet, lorsqu’on ajoute « signification » à ces expressions inventées, l’IA génère des explications complètement fantaisistes.

Une Explication Étonnante

L’IA de Google a proposé que l’expression fictive « On ne peut pas lécher un blaireau deux fois » signifie que l’on ne peut pas tromper quelqu’un une fois de plus après qu’il ait déjà été dupé. Selon cette approche, c’est une sorte d’avertissement soulignant que les personnes dupées une fois sont peu susceptibles de se laisser prendre à nouveau par le même stratagème.

Des Observations Surprenantes

L’auteure Meaghan Wilson-Anastasios, qui a remarqué ce phénomène étrange, a partagé une anecdote sur une plateforme de réseaux sociaux. En demandant la signification de « talons en platforme de beurre de cacahuète », l’IA a répondu que c’était une référence à une expérience scientifique où le beurre de cacahuète démontrait la création de diamants sous haute pression.

Les Échantillons Abondent

D’autres exemples abondent. Par exemple, Google a prétendu que l’expression inventée « le vélo mange d’abord » est une façon humoristique de rappeler à chacun de prioriser sa nutrition, notamment les glucides, pour mieux soutenir ses efforts en cyclisme.

Des Interprétations Étranges

Même le nom de l’auteure n’a pas échappé à ces interprétations loufoques. Lorsqu’on lui a demandé ce que signifiait la phrase absurde « si tu ne m’aimes pas quand je suis Victor, tu ne me mérites pas quand je suis Tangermann », l’IA a répondu qu’il s’agissait d’une question de valorisation personnelle en fonction de ses hauts et de ses bas.

Le Problème des Hallucinations

Ces réponses déconcertantes illustrent l’un des principaux défauts de l’intelligence artificielle : les hallucinations. Les modèles d’IA basés sur un langage large ont souvent tendance à fournir des informations inventées et à induire les utilisateurs en erreur, leur laissant croire qu’ils avaient tort.

Les Efforts de Correction

Malgré les efforts pour améliorer ces modèles, l’IA de Google continue d’avoir des problèmes de hallucinations. Les nouveaux modèles d’OpenAI affichent des niveaux d’hallucination encore plus élevés, ce qui souligne une certaine dérive dans les progrès réalisés.

Réactions du Public

Depuis son lancement, la fonctionnalité Google AI Overviews a souvent été critiquée pour son manque de fiabilité, parfois de manière plutôt comique. Par exemple, elle a suggéré un jour que la colle était un bon supplément pour éviter que les garnitures de pizza ne glissent. Suite à des réactions négatives, Google a reconnu que certaines des informations fournies par l’IA étaient effectivement « étranges, inexactes ou inutiles ».

Solutions Proposées

Pour remédier à ce souci, Google a mis en place des limitations sur certaines réponses lorsqu’il détecte des « requêtes absurdes » qui ne devraient pas aboutir à une réponse de type AI Overview. Cependant, plus d’un an après le lancement, il reste encore beaucoup à faire pour résoudre ce problème.

Impact Négatif Sur Les Sites Web

De plus, la fonctionnalité nuit à de nombreux sites en réduisant le nombre de clics sur les listes organiques traditionnelles. Cela affecte ainsi la viabilité économique de plusieurs sites qui proposent des informations fiables.

Ambitions Futures de Google

Malgré ces problèmes, Google semble déterminé à aller de l’avant. Le mois dernier, la société a annoncé qu’elle se concentrerait sur l’extension des AI Overviews aux États-Unis pour répondre à des questions plus complexes, notamment en programmation ou mathématiques avancées. De plus, des conseils médicaux seront également fournis par ce système.

Limitations de l’IA

Bien que l’IA montre une certaine conscience de ses limites, elle continues de prétendre offrir des réponses plus variées, même si beaucoup de personnes choisissent d’en limiter l’utilisation pour le moment.

FAQ

Quels types d’expressions l’IA peut-elle interpréter ?

L’IA peut interpréter des phrases qui sont soit intégrées dans une logique humoristique, soit totalement inventées, lui permettant de fournir des explications souvent farfelues.

Comment Google essaie-t-il de corriger ces hallucinations ?

Google a mis en place des mesures pour restreindre certaines réponses lorsque des requêtes dénuées de sens sont détectées. Cela fait partie de leur effort pour améliorer la véracité des informations fournies.

Quels sont les principaux inconvénients des AI Overviews ?

L’un des principaux inconvénients est qu’elles peuvent diffuser de fausses informations tout en impactant négativement la visibilité des sites internet fiables, réduisant ainsi leur trafic.

Existe-t-il un moyen de désactiver cette fonction ?

Oui, il existe des méthodes pour désactiver les AI Overviews dans les paramètres de recherche de Google, même si cela peut limiter certaines fonctionnalités de réponse.

Pourquoi Google continue-t-il de développer cette fonctionnalité ?

Google affirme que les utilisateurs avancés recherchent des réponses AI pour un plus grand nombre de requêtes, ce qui les pousse à continuer le développement de cette fonctionnalité malgré les problèmes.

Quitter la version mobile