</div>
<p>
<figcaption class="article-featured-image-caption">
<em>Image : Ezra Shaw/Getty Images</em> </figcaption>
</p>
</div><div>
Une accusation étrange contre Klay Thompson
Il a été annoncé que Grok, le chatbot d’Elon Musk sur X (anciennement Twitter), aurait faussement accusé Klay Thompson, joueur des Golden State Warriors, de jeter des briques sur des maisons à Sacramento. Pourtant, cette accusation n’a aucun fondement réel. Thompsom n’a rien fait de tel ; cette information est le résultat d’une mauvaise interprétation d’une blague en ligne assez connue.
Une blague mal comprise
Il semble que l’algorithme de Grok ait lâché prise sur une plaisanterie répétée dans les cercles de fans, où Thompson était critiqué pour son mauvais rendement sur le terrain. En effet, après une défaite face aux Sacramento Kings, certains fans avaient posté des commentaires sarcastiques en disant qu’il “jetait des briques”, une expression utilisée pour évoquer un joueur qui rate ses tirs. Grok a pris cette blague au pieds de la lettre, comme l’indiquent plusieurs rapports.
Des déclarations trompeuses
Dans une déclaration absurde, Grok a affirmé que des “autorités enquêtaient sur des actes de vandalisme”, prétendant que des habitants avaient signalé des fenêtres brisées à cause de briques lancées. Ce type de désinformation est non seulement préoccupant, mais cela souligne aussi un problème important dans le fonctionnement des intelligences artificielles, en particulier en période d’élections, où l’exactitude de l’information est capitale.
Responsabilité des plateformes
Ce qui est troublant, c’est que X ne prend pas la responsabilité de ces erreurs. Au lieu de revoir les informations fournies par son chatbot, la plateforme demande aux utilisateurs de vérifier la véracité des contenus générés par l’IA. Un message en bas de la publication problématique indique que « Grok peut faire des erreurs », demandant aux gens de valider les informations.
Conséquences de telles erreurs
Le fait qu’un chatbot puisse produire de telles affirmations erronées, et qu’une grande plateforme les diffuse sans vérification, montre combien la technologie derrière ces intelligences artificielles est défaillante malgré les investissements massifs en recherche et développement. Cela soulève de réelles craintes concernant l’utilisation de ces outils dans des situations critiques.
Des cas similaires préoccupants
Un incident récent, impliquant l’intelligence artificielle de Meta, a également montré les dangers de ces technologies lorsqu’elle a annoncé qu’elle avait “un enfant surdoué mais en difficulté” parmi un groupe de parents, une information qui a rapidement dû être supprimée. Cela implique que les risques de telles erreurs se manifestent à tout moment, et pas seulement sur X.
Informations supplémentaires sur Grok
Grok, un produit dérivé des technologies d’Elon Musk, continue de faire l’objet de controverses, notamment en raison de ses allégations de désinformation, incluant des accusations farfelues qui vont jusqu’à affirmations sur des procès liés à des comportements criminels graves.
FAQ
Q : Qu’est-ce que Grok exactement ?
A : Grok est un chatbot développé par Elon Musk qui interagit sur X et génère des contenus, parfois basés sur des blagues ou des tendances en ligne.
Q : Pourquoi Klay Thompson a-t-il été ciblé par Grok ?
A : Thompson a été critiqué pour une performance décevante, entraînant des commentaires humoristiques sur ses lancers.
Q : Quel est le rôle d’X dans la vérification des faits ?
A : X semble attribuer la responsabilité de la vérification de l’information aux utilisateurs plutôt qu’à son chatbot, soulevant des questions sur sa fiabilité.
Q : Y a-t-il d’autres incidents notables impliquant des chatbots ?
A : Oui, d’autres cas similaires, notamment celui de Meta, illustrent la capacité des chatbots à produire des informations inexactes, entraînant des conséquences sérieuses.
Q : Quels sont les risques associés à l’utilisation des chatbots et de l’IA ?
A : Les risques comprennent la désinformation, l’impact sur les perceptions publiques et les conséquences potentiellement nocives, en particulier en période électorale.
