Intelligence Artificielle

Un Juge Accusé d’Avoir Utilisé l’IA pour Rendre un Verdict Confus

Un Juge Accusé d'Avoir Utilisé l'IA pour Rendre un Verdict Confus

Une décision controversée d’un juge fédéral

Récemment, un juge fédéral du Mississippi, Henry Wingate, a rendu une décision qui a suscité de nombreuses interrogations en raison de graves erreurs factuelles. Parmi celles-ci figurent des mention de plaignants qui n’existent pas, des citations inventées de lois de l’État, ainsi que des références à des affaires judiciaires qui n’ont visiblement jamais eu lieu.

Une inquiétude grandissante face à l’utilisation d’IA

Selon un article du média Mississippi Today, ce juge a émis une ordonnance de restriction temporaire qui a immédiatement éveillé des doutes sur son authenticité, certains se demandant si un outil d’intelligence artificielle avait été impliqué dans sa rédaction. On voit de plus en plus de cas où des avocats ont été pris en flagrant délit d’utilisation d’outils comme ChatGPT d’OpenAI pour produire des documents juridiques de mauvaise qualité, ce qui ne passe généralement pas inaperçu dans le monde judiciaire.

Cependant, voir un juge en position d’autorité accusé de telles pratiques devrait alerter la communauté juridique. Bien que certaines sanctions aient été imposées à des avocats pour usage inapproprié d’IA, la réaction face à un juge qui commet ce genre d’erreurs reste encore incertaine.

A lire :  Des Mèmes aux Vidéos : Quand l’IA Réinvente l’Hilarité de Manière Disturbante.

Des erreurs persistantes malgré les corrections

Pire encore, après avoir reconnu des erreurs, Wingate a publié un nouvel ordre qui corrige certaines inexactitudes mais qui continue tout de même à mentionner une loi de 1974 qui semble inexistante, comme le rapportent nos sources. Un avocat, Eric Wessan, a exprimé son choc sur les réseaux sociaux, affirmant que cette précipitation nuit à l’intégrité du système judiciaire.

Lorsque les avocats ont demandé au juge de clarifier certaines parties de son ordonnance, il a dû apporter cette correction. L’ordonnance originale avait mentionné l’Association des bibliothèques du Mississippi et la sororité Delta Sigma Theta comme plaignantes, alors qu’aucune des deux n’était engagée dans une procédure judiciaire, n’ayant même aucun cas en cours.

Réactions du milieu juridique

Un représentant du bureau du procureur général du Mississippi a déclaré à Mississippi Today que ses avocats n’avaient jamais été confrontés à une telle situation. De son côté, Wingate n’a pas encore commenté publiquement ses décisions ni clarifié s’il a utilisé des outils d’IA dans le cadre de son travail.

Les preuves accablantes mettent en évidence des faux pas tels que des citations déformées du procès initial et la mention de cas imaginaires. Ces incohérences sont caractéristiques des “hallucinations” souvent attribuées à l’IA.

La frustration d’un système opaque

Christina Frohock, professeure de droit à l’Université de Miami, a exprimé son incompréhension face à la situation, affirmant qu’elle se sentait comme Alice au pays des merveilles. La réalité est que nous pourrions ne jamais savoir si Wingate, qui a été nommé par Ronald Reagan en 1985, a eu recours à une IA pour rendre sa décision. Elle note qu’alors qu’un avocat pourrait être interrogé sur de tels actes, il est peu probable qu’un juge fasse l’objet de la même rigueur.

A lire :  Le Gouverneur de la Banque d'Angleterre estime que l'IA ne provoquera pas de « chômage de masse »

FAQ

Quels types d’erreurs ont été commises par le juge Wingate ?

Les erreurs incluent la mention de plaignants fictifs, des citations inexactes de lois et des références à des affaires judiciaires inexistes.

Quelle a été la réaction des avocats face à cette décision ?

Les avocats ont exprimé leur confusion et leur frustration face à la situation, demandant des clarifications sur l’ordonnance.

Qu’est-ce qu’une “hallucination” dans le contexte de l’IA ?

Une hallucination fait référence à une situation où un système d’IA génère des informations incorrectes ou fictives, souvent en raison d’un manque de données pertinentes.

Comment le système judiciaire traite-t-il l’utilisation inappropriée d’IA par les avocats ?

Des sanctions ont été imposées à des avocats pour avoir utilisé de l’IA de façon incorrecte, mais la situation est moins claire pour les juges.

Quelles précautions pourraient être prises pour éviter de telles erreurs à l’avenir ?

Il serait essentiel de renforcer les formations sur l’utilisation des outils technologiques pour les juges et avocats, ainsi que d’imposer un contrôle plus rigoureux des documents judiciaires avant leur publication.