LibelGPT : Un Incident Préoccupant
Récemment, un journaliste nommé Martin Bernklau, qui travaille à Tubingen en Allemagne, a été victime d’une erreur grossière de l’IA de Microsoft, appelé Copilot. Ce chatbot a faussement désigné Bernklau comme un individu ayant un passé criminel, lui attribuant des accusations très graves comme celles d’être un récidiviste ou un fraudeur exploitant des veuves en deuil. Cet incident illustre bien les problèmes liés aux hallucinations de l’IA, où des informations fausses mais préjudiciables sont produites.
Une Réponse Inadéquate
Lors d’une recherche personnelle sur ses publications, Bernklau a utilisé Copilot, intégré dans le moteur de recherche Bing. C’est alors qu’il a constaté que l’IA avait amalgamé ses reportages sur des procès criminels, le présentant comme l’un des délinquants.
Face à cette situation, il a décidé de porter plainte pour diffamation. Malheureusement, les procureurs ont rejeté sa demande, arguant qu’aucune infraction n’avait été commise, étant donné qu’aucune personne réelle ne pouvait être considérée comme responsable de ces accusations, comme l’indique le média SWR.
Aucune Solution à l’Horizon
Bernklau a tenté d’approcher les responsables de la protection des données et a eu quelques retours, mais cela n’a apporté qu’une solution partielle. Il a rapporté à The Register que Microsoft avait promis d’effacer ces contenus fallacieux, mais cela n’a duré que quelques jours. Actuellement, son nom semble être complètement bloqué sur Copilot, malgré les fluctuations régulières de la situation.
Un Problème Récurent
Cette affaire n’est pas un cas isolé. Les erreurs d’autre IA, comme celle de Meta, qui a dénoncé un chercheur de Stanford comme un terroriste, ou les allégations erronées d’Elon Musk quant à un joueur de la NBA impliqué dans des actes de vandalisme, témoignent d’un problème plus vaste. Les fausses accusations ciblant des individus peuvent être particulièrement préjudiciables, entraînant des répercussions en cascade sur leur réputation et leur bien-être.
Pour Bernklau, cette expérience a été véritablement traumatisante. Il a décrit ses émotions en termes de choc, de horreur, et de rire incrédule face à l’absurde de la situation, tout en reconnaissant la menace réelle que cela représentait pour lui.
La question de la responsabilité légale de Microsoft reste ouverte. Alors que certains cas en cours pourraient créer un précédent, comme celui d’un homme ayant poursuivi OpenAI pour des accusations similaires, Bernklau se retrouve dans une position difficile, avec peu d’options à sa disposition.
FAQ
Qu’est-ce qu’une hallucination de l’IA ?
Une hallucination de l’IA se produit quand un système produit des informations fausses ou déroutantes qui peuvent sembler crédibles, mais qui sont entièrement inventées.
Quels recours juridiques existent pour les victimes de diffamation par IA ?
Les victimes peuvent porter plainte pour diffamation ou contacter des organismes de protection des données, bien que les résultats ne soient pas toujours satisfaisants.
Les entreprises peuvent-elles être tenues responsables des erreurs de leurs IA ?
Cela dépend des lois en vigueur et des circonstances de chaque cas. Des actions en justice en cours pourraient influencer ce domaine.
Comment fonctionne le système de protection des données en Allemagne ?
L’Allemagne a des lois strictes sur la protection des données, qui visent à protéger les individus contre l’utilisation abusive de leurs informations personnelles.
Quelles conséquences peuvent résulter de fausses déclarations par une IA ?
Des accusations non fondées peuvent entraîner des dommages à la réputation de la personne ciblée, des impacts psychologiques, et même des problèmes juridiques.
