Les dérapages d’avocats avec l’IA deviennent répétitifs. Dans une affaire de prêt contesté à New York, un défenseur a franchi un cap: après avoir été épinglé pour des citations inventées, il a tenté de justifier sa démarche… avec un nouveau texte rédigé par un modèle de langage. Le juge Joel Cohen n’a pas laissé passer et a prononcé des sanctions.
Ce qui s’est passé, en bref
- Un avocat new-yorkais, Michael Fourte, dépose des écritures truffées de références juridiques inexactes ou inexistantes.
- La partie adverse repère rapidement ces erreurs et demande des sanctions.
- Pour se défendre, Fourte soumet un mémoire explicatif… lui aussi préparé à l’aide d’un outil d’IA, qui contient encore plus d’anomalies.
- Après des explications changeantes, l’avocat finit par admettre l’usage d’IA, tout en évoquant un problème de supervision au sein de son équipe.
- Le tribunal sanctionne.
Comment l’erreur a été détectée
Les adversaires ont décortiqué les écritures et repéré des citations et citations textuelles qui n’avaient pas de trace dans la jurisprudence réelle. Dans un contentieux où chaque référence compte, une seule erreur générée par IA peut offrir un avantage stratégique: elle fragilise la crédibilité de la partie fautive et alimente une demande de sanctions.
L’explication de l’avocat… et pourquoi elle a aggravé son cas
Plutôt que de reconnaître clairement l’usage d’un outil non vérifié, l’avocat a d’abord minimisé la portée des erreurs, parlant de paraphrases ou de formulations maladroites. Il a même laissé entendre qu’aucune preuve technique ne démontrait l’emploi de l’IA. Lors des échanges en audience, il a soutenu que les affaires citées n’étaient pas « fabriquées ». Pressé de s’expliquer sur une décision totalement imaginaire, il a finalement admis avoir recouru à l’IA, tout en invoquant la responsabilité partagée avec des collaborateurs.
La réaction du tribunal
Pour le juge Joel Cohen, c’est simple: intégrer des références inexistantes sans les vérifier équivaut à utiliser de l’IA non contrôlée. Le tribunal a jugé l’attitude de la défense inacceptable et a accordé la demande de sanctions. Message clair: l’IA n’excuse ni la négligence, ni l’absence de vérification humaine.
Pourquoi cette affaire n’est pas un cas isolé
- D’autres avocats, parfois au sein de grands cabinets, ont été pris à utiliser des chatbots ou des outils juridiques « intelligents » produisant des hallucinations.
- Le phénomène ne se limite pas aux plateformes grand public: des solutions spécialisées peuvent aussi se tromper.
- Des cabinets réputés comme Morgan & Morgan ont déjà dû gérer des incidents de ce type, avec des rappels internes urgents et des consignes de contrôle renforcées.
- Les juges multiplient les mises en garde, mais certains praticiens ne retiennent pas la leçon: l’IA aide, mais ne remplace pas la diligence et la relecture.
Les leçons à retenir pour la profession
- Toujours effectuer une vérification humaine des citations et sources avant dépôt.
- Interdire les « copiés-collés » d’IA sans traçabilité ni validation.
- Définir des protocoles internes de supervision: qui utilise l’IA, à quelles étapes, avec quels contrôles.
- Exiger des preuves documentées (liens officiels, numéros d’affaires, décisions téléchargeables) pour chaque autorité citée.
- Former les équipes au risque d’hallucinations, même avec des outils présentés comme « faits pour le droit ».
Où en est l’avocat sanctionné
Sollicité pour réagir, l’avocat a déclaré qu’il ne commenterait pas les détails tant que la procédure se poursuit et qu’il a mis en place des mesures de vérification et de supervision supplémentaires. Le tribunal, lui, a déjà tiré la conséquence: sanctions accordées.
En toile de fond: une confiance à regagner
Cette affaire illustre la tension entre les promesses de l’IA et la réalité de ses limites. Dans le secteur juridique, l’exactitude est non négociable. Une référence fictive peut ruiner une argumentation, froisser le tribunal et entacher la réputation d’un avocat. L’IA peut accélérer la recherche, mais seule une revue critique humaine protège réellement contre les dérapages.
Bonnes pratiques concrètes
- Exiger des sorties IA un tableau de preuves: lien officiel, identifiant d’affaire, juridiction, date, résumé vérifié.
- Mettre en place un processus en deux temps: rédaction assistée, puis audit juridique systématique.
- Interdire les citations générées sans contrôle de sources primaires (bases officielles, décisions scannées).
- Journaux de bord d’utilisation de l’IA: qui a utilisé quoi, quand, pour quoi, et qui a validé.
- Simulations internes: tester régulièrement l’outil sur des cas connus pour mesurer le taux d’erreur.
FAQ
Qu’est-ce qu’une « hallucination » d’IA en droit ?
C’est une réponse plausible mais fausse, par exemple une décision de justice inventée ou une citation altérée. Les modèles produisent du texte cohérent, pas une vérité garantie.
Comment un avocat peut-il réduire ce risque au minimum ?
En exigeant la validation systématique sur des bases officielles, en séparant la rédaction assistée de l’audit juridique, et en interdisant tout dépôt sans preuve primaire accessible.
Les outils d’IA spécialisés en droit sont-ils plus sûrs ?
Ils peuvent être meilleurs sur la mise en forme et l’indexation, mais restent fallibles. Sans contrôle humain et sources authentifiées, le risque subsiste.
Comment les juges détectent-ils ces erreurs ?
Par des incohérences, l’absence de trace d’une affaire dans les répertoires officiels, ou des citations qui ne correspondent pas au contenu réel d’une décision.
Quelles conséquences encourt-on en cas d’usage imprudent de l’IA ?
Des sanctions, une perte de crédibilité, des délais et des coûts supplémentaires, et potentiellement des obligations de formation ou de mise en conformité imposées par le tribunal.
