Intelligence Artificielle

Avocat en Difficulté Après Utilisation de ChatGPT au Tribunal : Un Désastre Total.

Avocat en Difficulté Après Utilisation de ChatGPT au Tribunal : Un Désastre Total.

LawBot

Récemment, la tendance de ChatGPT à **inventer des informations** a conduit un avocat dans des ennuis sérieux.

Dans un affidavit de début mai, un avocat représentant un homme poursuivant une compagnie aérienne pour une prétendue blessure a avoué avoir utilisé un chatbot pour ses recherches. Ainsi, dans son dossier juridique, il a cité un certain nombre de cas judiciaires — tous avec des noms qui semblaient officiels, tels que “Martinez contre Delta Air Lines” et “Varghese contre China Southern Airlines” — mais qui en réalité n’existent pas.

L’avocat, **Steven Schwartz** du cabinet Levidow, Levidow & Oberman à Manhattan, a confié à la cour que c’était la première fois en plus de trente ans de carrière qu’il se servait de ChatGPT, et il a déclaré n’avoir pas réalisé que son contenu pouvait être inexact.

De plus, Schwartz a affirmé avoir demandé à ChatGPT de **vérifier ses sources**. Le chatbot lui aurait confirmé que les cas en question étaient réels, selon les rapports du **New York Times**.

Oui, vous avez bien entendu. Un avocat expérimenté a utilisé ChatGPT dans une affaire judiciaire et se retrouve désormais dans une situation délicate après que le chatbot a créé des précédents juridiques inexistants.

A lire :  Le domaine AI.com d'OpenAI redirige désormais vers la société d'IA d'Elon Musk.

Faux Precedents

Schwartz a exprimé ses **grands regrets** d’avoir fait appel à ChatGPT pour ses recherches et a promis de ne jamais recommencer sans une **vérification rigoureuse** de l’authenticité des informations.

Cependant, le juge Castel ne semble pas impressionné par ses excuses, comme l’atteste son ordonnance du 4 mai, où il décrit clairement la gravité de l’incident.

“La Cour est confrontée à une situation sans précédent,” indique l’ordonnance pour une future audience. “Une soumission effectuée par l’avocat du plaignant en réponse à une motion de rejet est pleine de citations de cas non existants… six des cas soumis semblent être de fausses décisions judiciaires, avec des citations et des références internes également fictives.”

Le mois prochain, Castel tiendra une audience pour déterminer si des sanctions doivent être appliquées à Schwartz. En attendant, cette affaire étrange devrait servir d’avertissement pour les avocats — et tous ceux qui envisagent d’utiliser ChatGPT dans un cadre professionnel.

Plus sur le droit et l’IA : Le PDG d’OpenAI s’inquiète et menace de quitter l’UE en raison de nouvelles réglementations

FAQ

Pourquoi ChatGPT a-t-il créé de fausses informations juridiques ?

ChatGPT fonctionne sur des algorithmes basés sur des données existantes. Il peut parfois générer des contenus inexactes car il ne comprend pas le véritable contexte législatif.

Quelles sont les conséquences pour l’avocat Schwartz ?

Il pourrait faire face à des sanctions professionnelles, notamment une éventuelle suspension ou réprimande de la part de la barre.

Comment les avocats peuvent-ils utiliser l’IA de manière responsable ?

Les avocats doivent toujours vérifier les sources et les informations générées par l’IA, en s’assurant de leur authenticité avant de les utiliser dans des documents juridiques.

A lire :  Les Quiz IA de BuzzFeed : Un Problème à Résoudre ?

Existe-t-il d’autres exemples d’IA faisant des erreurs similaires ?

Oui, plusieurs incidents ont été rapportés où des outils d’IA ont produit des résultats inexacts dans divers domaines, tels que la médecine et le journalisme.

Quels sont les risques associés à l’utilisation de l’IA en milieu professionnel ?

Les risques incluent la diffusion d’informations fausses, la perte de crédibilité et des conséquences légales potentielles si des documents erronés sont présentés en justice.