Ce qui s’est passé
Dans une affaire de garde d’enfants devant la cour d’appel du Maryland, un avocat de la famille a déposé un mémoire truffé de références juridiques inventées par un outil d’intelligence artificielle, notamment ChatGPT. Plusieurs citations renvoyaient à une jurisprudence inexistante; d’autres, bien réelles, allaient à l’encontre des arguments avancés. Résultat: ces erreurs ont atterri dans le dossier officiel de la cour, suscitant une réaction ferme des magistrats.
Origine du dérapage
L’avocat, Adam Hyman, a expliqué ne pas avoir mené lui-même la recherche des références. Il a indiqué s’être reposé sur un clerc ayant utilisé un chatbot pour trouver et retoucher les citations avant transmission. Le collaborateur, d’après l’avocat, ne connaissait pas les risques d’“hallucinations” de l’IA — ces situations où le modèle invente des informations plausibles mais fausses. L’avocat a aussi reconnu ne pas avoir vérifié les décisions citées, tout en soulignant qu’il exerce peu en appel. En pratique, cela signifie qu’aucun contrôle rigoureux n’a été effectué avant le dépôt du document.
La réponse de la cour
La juge d’appel Kathryn Grill Graeff a rappelé sans détour qu’il est impropre pour un avocat de soumettre un mémoire contenant des décisions fictives générées par une IA. Selon elle, une représentation compétente impose de lire et de confirmer chaque source citée afin de s’assurer qu’elle soutient réellement la thèse défendue. Même si un tel incident n’appelle pas d’ordinaire une opinion écrite, la cour a jugé nécessaire de s’exprimer pour traiter un problème récurrent dans les juridictions américaines: l’usage non maîtrisé de l’IA.
Mesures et conséquences
Parce qu’il était le seul avocat inscrit au barreau sur ce dossier, Hyman a dû reconnaître sa responsabilité pour les références erronées. La cour a exigé:
- La participation de l’avocat et du clerc à des formations en éthique et usage responsable de l’IA.
- La mise en place de protocoles internes de vérification systématique des citations (contrôles de sources officielles, relecture par un juriste, traçabilité des recherches).
- Le renvoi de l’avocat devant la Commission de discipline du barreau (Attorney Grievance Commission) pour d’éventuelles sanctions complémentaires.
Un signal pour toute la profession
L’affaire marque la première intervention explicite des juridictions d’appel du Maryland sur ce terrain, mais elle s’inscrit dans une tendance nationale. Les tribunaux voient affluer des écritures composées, en tout ou partie, par des outils d’IA. Sans garde-fous, ces usages multiplient les citations fantômes, les raisonnements incohérents et des failles éthiques qui peuvent léser les justiciables et encombrer les cours.
Bonnes pratiques à retenir
Pour éviter de nouveaux incidents, les professionnels du droit peuvent:
- Traiter l’IA comme un assistant de brouillon, jamais comme une autorité: tout contenu doit être vérifié.
- Contrôler chaque citation via des sources officielles (recueils, bases de données reconnues) et des systèmes de validation comme les outils de citator (p. ex., Shepardize, KeyCite).
- Mettre en place une chaîne de validation: relecture par un avocat, check-list de conformité, journal de recherche.
- Former l’équipe (avocats et personnels non juristes) aux risques d’hallucination et aux limites des chatbots.
- Documenter l’usage de l’IA dans le processus interne et garder la traçabilité des vérifications.
Comprendre l’“hallucination” d’IA
- L’IA peut générer des contenus très convaincants mais factuellement faux.
- Le style et la précision apparente ne garantissent pas la véracité.
- Plus la requête est spécialisée (p. ex., jurisprudence pointue), plus le risque d’erreur augmente si l’on ne s’appuie pas sur des bases juridiques fiables.
Le message clé
L’IA peut accélérer la rédaction, mais elle ne remplace ni le jugement professionnel, ni la vérification juridique. La responsabilité finale reste celle de l’avocat qui signe et dépose.
L’IA est-elle interdite dans la rédaction juridique?
Non. Son usage est généralement permis, mais soumis à des devoirs de compétence, de confidentialité et de vérification. Beaucoup de tribunaux exigent désormais la divulgation de l’usage d’IA et/ou une certification que toutes les citations ont été vérifiées.
Quelles étapes rapides pour vérifier une citation?
- Rechercher la décision dans une base reconnue.
- Confirmer la juridiction, la date et la référence officielle.
- Lire le résumé et les passages cités pour vérifier le sens.
- Utiliser un citator pour s’assurer que la décision est toujours valable.
Quels protocoles internes mettre en place au cabinet?
- Politique écrite d’usage de l’IA (outils autorisés, données interdites, traçabilité).
- Check-list de dépôt incluant une étape “validation des sources”.
- Formation périodique et audits internes des dossiers.
Existe-t-il des outils plus sûrs que les chatbots généralistes?
Oui. Des plateformes juridiques spécialisées offrent des moteurs de recherche, résumés assistés par IA et citators intégrés. Elles réduisent les erreurs en s’appuyant sur des corpus vérifiés et des fonctions de contrôle de validité.
Que risque un justiciable qui se représente seul avec un mémoire généré par IA?
Le tribunal peut ignorer l’écrit, ordonner des corrections, voire sanctionner en cas d’abus. Même en l’absence d’avocat, la partie demeure responsable du contenu déposé et des fausses citations éventuelles.
