Le désastre de Grok face à une tragédie
La tragédie du tirs de masse à Bondi Beach en Australie est devenue un révélateur des limites des systèmes d’intelligence artificielle, particulièrement avec le chatbot Grok de xAI. Ce système a échoué de manière spectaculaire à relater les événements, en diffusant des informations erronées sur Ahmed al Ahmed, l’homme qui a courageusement neutralisé l’un des tireurs. Grok l’a confondu avec un otage israélien et a même affirmé qu’une vidéo vérifiée était en réalité un clip viral d’un homme grimpant à un arbre. En plus, il a désigné une plage incorrecte pour l’incident. Cette situation illustre que même en dépit de l’évolution des capacités des IA, elles demeurent extrêmement peu fiables dans des moments critiques.
La désinformation en temps réel
Grok a transformé une situation tragique en un exemple de pourquoi les systèmes d’IA ne devraient pas être utilisés pour relayer des nouvelles en temps réel. Après le tirs de Bondi Beach, le chatbot a continué de propager des mensonges de manière étonnamment cohérente, exacerbant ainsi le problème à un moment où la véracité des informations est primordiale.
Les conséquences sont les plus graves lorsque les informations touchent des personnes. Ahmed al Ahmed, 43 ans, a été salué comme un héros, mais Grok a déformé et minimisé ses actions. Il l’a systématiquement identifié comme un Israélien captive de Hamas. Lorsqu’il a été confronté à une vidéo authentique montrant son acte héroïque, Grok a maintenu qu’il s’agissait d’un ancien clip viral. De plus, il a affirmé que les images provenaient de la plage de Currumbin pendant le cyclone Alfred, ce qui est totalement faux.
L’utilisation de la désinformation
Les défaillances de Grok ont rapidement été exploitées par des acteurs malveillants. Un site d’info bidon, vraisemblablement généré par IA, a été mis en ligne, prétendant que Edward Crabtree, un professionnel de l’informatique imaginaire, avait désarmé le tireur. Cette histoire fictive a atterri dans Grok, qui l’a ensuite diffusée sur X à des milliers d’utilisateurs.
Une crise de confiance généralisée
La situation avec Grok pose des questions plus larges sur la fiabilité des systèmes d’IA. Ce n’est pas seulement une question de désinformation autour d’un événement particulier, mais plutôt une défaillance systémique. Lorsque les utilisateurs ont demandé des informations sur les problèmes financiers d’Oracle, Grok a donné un résumé du tir à Bondi Beach à la place. De même, une requête concernant une opération de police au Royaume-Uni a obtenu une réponse aléatoire avec des chiffres de sondage concernant Kamala Harris. Cela suggère une confusion générale sur le fonctionnement du chatbot.
Des problèmes déjà connus
Ce déboire n’est pas une nouveauté pour Grok. Depuis son lancement, cette technologie a rencontré des critiques concernant sa fiabilité. Les tentatives de donner à Grok une personnalité « audacieuse » qui s’écarte des normes de sécurité ont, à maintes reprises, entraîné des échecs, sacrifiant le développement d’une IA responsable pour un désir de « fraîcheur » et d’originalité.
FAQ
Qu’est-ce que Grok ?
Grok est un chatbot développé par xAI, conçu pour interagir avec les utilisateurs et fournir des réponses à divers sujets.
Pourquoi la désinformation est-elle un problème majeur dans l’IA ?
La désinformation peut provoquer des malentendus graves, surtout lors d’événements sensibles, ce qui peut nuire à des individus et à la société.
Comment les acteurs malveillants exploitent-ils les défaillances de l’IA ?
Ils créent souvent de fausses informations ou des récits convaincants basés sur des erreurs, ce qui peut ensuite être amplifié par des systèmes d’IA, altérant la perception du public.
Quelles sont les alternatives aux chatbots pour des informations fiables ?
Utiliser des sources d’informations vérifiées comme des médias traditionnels et des institutions de confiance peut garantir des informations plus précises et vérifiées.
Quelles évolutions peut-on attendre dans le domaine des IA ?
Des améliorations dans la formulation et la vérification des sources d’informations sont attendues pour mieux gérer la propagation des fausses informations en temps réel.
