Intelligence Artificielle

Un Tribunal Inflige une Punition Humiliante aux Avocats Utilisant l’IA en Cour

Un Tribunal Inflige une Punition Humiliante aux Avocats Utilisant l'IA en Cour

La Réaction des Juges Face à l’Utilisation de l’IA par les Avocats

Les outils d’intelligence artificielle ont trouvé un écho favorable dans le monde juridique, mais les juges montrent peu de clémence lorsqu’ils constatent des erreurs dues à cette technologie. Récemment, le juge de district, David Hardy, a découvert des anomalies sérieuses dans un document soumis par deux avocats de la firme Cozen O’Connor, tels que des citations de jurisprudence manifestement fictives. En effet, il a relevé au moins 14 références douteuses, dont certaines étaient mal citées ou déformées, comme l’a rapporté Reuters.

Après examen, les avocats ont rapidement admis leur faute : l’un d’eux avait eu recours à ChatGPT pour rédiger et modifier le document litigieux. Alors que d’autres juges ont infligé des sanctions pour des fautes similaires, le juge Hardy a choisi une approche plutôt humiliante, proposant un ultimatum qui pourrait être perçu comme cruel.

Les Sanctions Imposées

Les avocats en question pourraient faire face à des amendes de 2 500 dollars chacun, être exclus de l’affaire et référés au barreau de l’État. Alternativement, ils pourraient choisir de reconnaître leur erreur en écrivant à d’anciens doyens de facultés de droit et à des officiers du barreau, tout en se proposant de parler de l’IA et de la conduite professionnelle. Si nous étions à leur place, il est à parier que nous opterions pour une solution bien plus radicale.

Les deux avocats représentaient Uprise, un fournisseur de services Internet. Selon les informations, la firme a présenté ses excuses au juge, expliquant qu’un associé, Daniel Mann, avait déposé par erreur un brouillon initial qui utilisait ChatGPT. Bien qu’il ait été renvoyé, l’autre avocat, Jan Tomasik, a semble-t-il conservé son poste.

La Politique de Cozen Face à l’IA

Cozen a déclaré avoir une politique stricte concernant l’utilisation de l’IA, interdisant les outils d’IA disponibles au public pour le travail client, tout en admettant qu’il lui reste des outils spécialisés. La firme a affirmé à Reuters : “Nous prenons cette responsabilité très au sérieux et les violations de notre politique ont des conséquences.”

Les Précédents Juridiques

Bien que la sanction de juge Hardy soit peu commune, il n’est pas le seul à lutter contre les avocats négligents qui ne vérifient pas leur travail basé sur l’IA. Des avocats de la grande firme Morgan & Morgan ont également dû faire face à des amendes pour avoir présenté des références de jurisprudence inventées par l’IA dans un procès contre Walmart. Bien que le tribunal ait imposé des amendes, la firme a ensuite envoyé un courriel alarmé à ses employés, soulignant les problèmes liés à l’IA tout en vantant son utilité.

La Prolifération des Erreurs liées à l’IA

Ces incidents ne sont pas des cas isolés. La plupart du temps, les avocats se servent de modèles linguistiques pour citer des cas pertinents. Cependant, l’IA a la capacité d’inventer des affaires ou de déformer des informations, ce qui se traduit par des erreurs. Le fait de laisser une intelligence artificielle exécuter des tâches sans vérification préalable est symptomatique d’une négligence croissante dans le milieu juridique.

Les avocats se tournent souvent vers des chatbots comme ChatGPT, mais même des outils spécialisés ont été impliqués dans des erreurs. La tendance à utiliser l’IA est devenue préoccupante, et certains juges adoptent une approche stricte pour remédier à cette problématique avant qu’elle ne devienne incontrôlable. Par exemple, trois avocats de Butler Snow ont été écartés de leur affaire après que le juge ait découvert des citations frauduleuses générées par l’IA.

Une Problématique Générale

Face à l’augmentation des erreurs, de nombreux juges ressentent une frustration croissante. Gary Marchant, de l’École de droit de l’Université d’État de l’Arizona, a indiqué que cette situation pourrait pousser les juges à chercher des moyens créatifs de punir les avocats fautifs tout en envoyant un message fort pour dissuader de futures négligences.

Pour être juste envers ces avocats, il est important de reconnaître que l’IA pose des problèmes dans l’ensemble du secteur juridique. Plus tôt cette année, le barreau de Californie a admis que certaines questions du dernier examen du barreau avaient été générées à l’aide d’un modèle linguistique. Même un juge du Mississippi a été accusé d’avoir utilisé l’IA pour rendre une décision confuse, provoquant la stupéfaction des avocats.

FAQ

Pourquoi les avocats utilisent-ils des outils d’IA comme ChatGPT ?

Les avocats utilisent des outils d’IA pour gagner du temps et améliorer l’efficacité en automatisant certaines tâches, comme la recherche de jurisprudence.

Quelles sont les conséquences pour les avocats qui utilisent l’IA de manière inappropriée ?

Les avocats peuvent faire face à des amendes, à la perte de leur cas et même à des sanctions par le barreau.

L’utilisation de l’IA par les avocats est-elle courante ?

Oui, de plus en plus d’avocats intègrent l’IA dans leurs pratiques, mais cela soulève des préoccupations éthiques et pratiques.

Quelles précautions devraient prendre les avocats en utilisant l’IA ?

Les avocats doivent toujours vérifier les informations fournies par l’IA pour garantir leur précision et leur fiabilité.

Comment les tribunaux réagissent-ils face à l’utilisation de l’IA ?

Les juges adoptent des mesures strictes pour contrer les abus liés à l’utilisation de l’IA, en infligeant des sanctions aux avocats qui ne respectent pas les normes professionnelles.

Quitter la version mobile