Un procès qui pourrait changer la donne
OpenAI tente de faire annuler un procès en diffamation concernant ChatGPT, mais un juge de Géorgie vient de statuer en sa défaveur. Ce jugement permet à l’affaire de se poursuivre et pourrait avoir des implications majeures sur la responsabilité d’OpenAI face aux propos de son chat. D’après un rapport d’Ars Technica, la situation pourrait être cruciale.
Les origines de la plainte
Le procès a été initié en juin dernier par Mark Walters, un activiste connu pour sa défense des droits des armes. Celui-ci accuse ChatGPT de l’avoir faussement accusé d’embezzlement (détournement de fonds).
La réponse d’OpenAI
En novembre, OpenAI a contesté la plainte en arguant qu’aucune diffamation n’avait eu lieu, affirmant que le chatbot n’est pas une publication au sens strict. De plus, la société a soutenu qu’il n’y avait pas de « malice réelle » dans les échanges, ni d’auditeur raisonnable croyant à ces propos, et donc pas de préjudice à sa réputation. Cela dit, ces arguments n’ont pas convaincu le juge, qui a rendu sa décision récente.
L’avocat de Walters, John Monroe, s’est réjoui que le tribunal ait décidé de ne pas abandonner l’affaire, permettant ainsi aux parties d’explorer le fond du dossier.
Des accusations inventées
Dans le cadre de la plainte, Walters a été informé des accusations portées contre lui par un journaliste, Fred Riehl, qui a utilisé ChatGPT pour résumer une plainte sans lien avec le sujet. Au lieu de cela, le chatbot a créé une affaire fictive avec des détails inventés et un numéro de dossier erroné, accusant Walters de détournement de fonds au détriment de la Second Amendment Foundation, une organisation à but non lucratif à laquelle il était lié.
Ceci illustre bien les “hallucinations” qui affectent les modèles de langage, où des informations incorrectes sont générées et présentées comme véridiques. Bien que ces erreurs soient involontaires, il est indéniable que cette technologie pourrait également servir à propager des informations trompeuses.
Éléments juridiques en jeu
Ars mentionne plusieurs arguments juridiques avancés par OpenAI qui pourraient expliquer pourquoi le juge a rejeté la requête pour abandonner l’affaire.
Un point essentiel soulevé par la société est que Walters, en raison de son statut, est considéré comme une figure publique, ce qui signifie qu’il devrait prouver l’existence d’une malice réelle. Cependant, Monroe a soutenu dans une soumission judiciaire de novembre qu’OpenAI n’avait pas démontré que Walters était effectivement une telle figure.
OpenAI s’est également reposé sur une déclaration de non-responsabilité précisant que les réponses du bot peuvent être inexactes. Dès lors, la responsabilité impliquerait la personne ayant posé la question, dans ce cas, le journaliste Riehl, qui n’a pas publié les résultats problématiques du chatbot.
Cependant, Monroe fait valoir qu’un avertissement ne transforme pas une déclaration diffamatoire en une déclaration non diffamatoire, comme le souligne Ars.
Ces éléments de défense sont significatifs, surtout dans un pays où prouver la diffamation est souvent difficile, en particulier pour les figures publiques. Néanmoins, le fait que le juge ait permis au procès de continuer est une bonne nouvelle pour Walters. En revanche, cela représente une préoccupation majeure pour OpenAI, qui fait déjà face à diverses poursuites et à une enquête de la FTC sur les déclarations potentiellement nuisibles faites par son chatbot à l’égard des utilisateurs.
FAQ
Qu’est-ce que ChatGPT ?
ChatGPT est un modèle de langage développé par OpenAI qui utilise l’intelligence artificielle pour générer texte et répondre à des questions posées par les utilisateurs.
Quelles sont les implications d’une telle affaire sur OpenAI ?
Si OpenAI est reconnu responsable, cela pourrait établir un précédent concernant la responsabilité des entreprises face à la désinformation produite par leurs intelligences artificielles.
Comment se déroule une procédure en diffamation aux États-Unis ?
La diffamation est un processus juridique complexe qui nécessite la démonstration d’une fausse déclaration nuisible, ainsi que dans certains cas, la preuve de malice réelle, surtout lorsqu’il s’agit de figures publiques.
Y a-t-il d’autres cas similaires en cours ?
Oui, OpenAI et d’autres entreprises de technologie subissent des pressions et des procès liés à des cas de désinformation et de responsabilité concernant leurs intelligences artificielles.
Que peut faire OpenAI pour améliorer ChatGPT ?
OpenAI pourrait améliorer ses modèles en affinant les algorithmes, en intégrant des mécanismes de vérification des faits, et en fournissant plus de contexte pour minimiser les “hallucinations” et l’information erronée.
