La confusion causée par Grok lors d’une crise d’actualité
Grok, le chatbot d’intelligence artificielle développé par xAI, la société fondée par Elon Musk, a fait l’objet de vives critiques dimanche matin. En effet, il a diffusé des informations erronées et déroutantes concernant une fusillade mortelle survenue à Bondi Beach, en Australie. Cet incident, survenu plus tôt dans la journée, a rapidement captivé l’attention du monde entier, alors que vidéos et images circulaient sur les réseaux sociaux.
Les erreurs de Grok face à l’information en temps réel
Alors que de nombreux utilisateurs se tournaient vers Grok pour obtenir des éclaircissements sur la fusillade, le chatbot a livré une série de réponses incorrectes et parfois absurde. Des publications mises en avant par Gizmodo ont montré Grok accusant réception d’identités clés mal identifiées et remettant en question la véracité de vidéos largement relayées.
L’une des erreurs les plus graves concernait un passant qui avait réussi à désarmer l’un des tireurs. Tant les autorités que les médias ont reconnu cet individu comme étant Ahmed al Ahmed, âgé de 43 ans. En revanche, Grok a régulièrement contesté cette information, allant jusqu’à affirmer que l’homme sur une photo couramment partagée était un otage israélien. Dans une autre réponse, il a prétendu qu’un certain Edward Crabtree, décrit comme un professionnel de l’informatique, avait réellement désarmé le tireur. Ces informations étaient complètement fausses et n’ont fait qu’ajouter à la confusion déjà présente dans un environnement informatif chaotique.
Narrations trompeuses et contexte erroné
Les erreurs de Grok ne se limitaient pas à la simple identification erronée. Lorsqu’on lui posait directement des questions sur la vidéo où al Ahmed intervient pour neutraliser le tireur, Grok a répondu de manière déconcertante, en décrivant une vidéo apparemment ancienne d’un homme grimpant dans un arbre. Il a suggéré que cette vidéo pourrait avoir été mise en scène, sans fournir de preuves solides sur la localisation ou la date.
De plus, Grok a faussement affirmé qu’une image d’al Ahmed blessé représentait un otage israélien pris par le Hamas. Étonnamment, il a ensuite remis en question la véracité de la confrontation, sauf que la question devrait de facto avoir été à des kilomètres de cela. Le chatbot a également confondu une vidéo clairement identifiée d’une fusillade policière à Sydney avec des images d’un cyclone, montrant une dérive inquiétante dans sa capacité à analyser le contexte. Ce n’est qu’après avoir été poussé à reconsidérer ses réponses que Grok a finalement corrigé ses erreurs.
Corrections, mais séquelles déjà visibles
Malgré ces graves erreurs, Grok a commencé à rectifier certaines de ses affirmations inexactes. Au moins un contenu qui liait à tort la vidéo de la fusillade au cyclone a été mis à jour après des réévaluations. Plus tard, le chatbot a finalement reconnu l’identité correcte d’al Ahmed, expliquant que la confusion provenait de publications virales qui l’avaient erronément identifié comme Edward Crabtree.
Bien que cette clarification soulève des questions sur la source de ces erreurs, il convient de noter que l’information erronée s’est déjà répandue, illustrant à quel point des allégations infondées peuvent se propager rapidement, notamment lorsque des systèmes automatisés les amplifient durant des événements critiques.
Un schéma plus large d’instabilité technologique
Les erreurs liées à la tragédie de Bondi Beach s’inscrivent dans un modèle plus vaste d’instabilité observée chez Grok ces derniers mois. Le même dimanche, des utilisateurs ont rapporté que le chatbot confondait complètement des sujets sans lien. Par exemple, une personne a reçu un résumé de la fusillade de Bondi en réponse à une question concernant la société Oracle.
Dans un autre cas, Grok a mêlé des détails de l’attaque de Bondi avec ceux d’une fusillade survenue quelques heures plus tôt à l’Université de Brown. De plus, il a récemment mal identifié des joueurs de football célèbres et a abordé des sujets politiques américains alors qu’il était interrogé sur une initiative de la police britannique.
FAQ
Pourquoi Grok a-t-il diffusé de fausses informations lors de la fusillade de Bondi Beach ?
Grok semble avoir mal interprété des sources d’information et a tiré des conclusions erronées, amplifiant ainsi des rumeurs infondées, ce qui est particulièrement problématique dans les situations d’actualité urgente.
Comment le chatbot Grok a-t-il été utilisé par les utilisateurs pendant la crise ?
De nombreux utilisateurs ont cherché à obtenir des informations précises en se tournant vers Grok, pensant que le chatbot pourrait clarifier les binarités de la situation, mais ont été déçus par des réponses incorrectes.
Quelles mesures xAI pourrait-elle prendre pour améliorer la précision de Grok ?
xAI pourrait améliorer les algorithmes de cuisine de contenu et renforcer les processus de vérification des faits afin d’assurer que les utilisateurs reçoivent des informations fiables, en particulier lors de crises.
Quelles sont les implications d’une telle désinformation dans des situations d’urgence ?
La désinformation peut engendrer la panique, alimenter des théories du complot et compromettre la réponse d’urgence. Il est donc crucial que des informations précises soient diffusées rapidement.
Existe-t-il des parallèles avec d’autres systèmes d’IA dans des crises précédentes ?
Oui, des cas antérieurs ont montré que d’autres systèmes d’IA ont également diffusé des informations erronées ou mal interprété des événements en direct, soulignant la nécessité d’une vigilance accrue dans l’utilisation d’outils technologiques en temps réel.
