Intelligence Artificielle

Google conteste une poursuite pour diffamation liée à l’IA, tandis que Meta règle l’affaire à l’amiable.

Google conteste une poursuite pour diffamation liée à l’IA, tandis que Meta règle l’affaire à l’amiable.

Contexte

Le géant de la recherche Google affronte de front une plainte pour diffamation de 15 millions de dollars déposée par l’activiste Robby Starbuck. Celui-ci affirme que des systèmes d’IA de Google l’auraient faussement associé à des accusations d’agressions sexuelles et à des liens avec le nationalisme blanc. Contrairement à Meta, qui a préféré régler un dossier similaire à l’amiable et a même recruté Starbuck comme conseiller, Google choisit une stratégie combative et tente de faire rejeter l’affaire dès le départ.

Deux stratégies qui s’opposent

  • Du côté de Meta: après une plainte antérieure de Starbuck au sujet d’allégations générées par une IA le reliant au 6 janvier au Capitole, l’entreprise a conclu un accord discret et a intégré l’activiste comme conseiller sur les sujets de “biais idéologique et politique” dans un chatbot. Cette voie réduit les risques publics, évite un débat juridique prolongé et ferme le dossier sans créer de précédent.
  • Du côté de Google: l’entreprise refuse de transiger et a déposé une motion to dismiss (demande de rejet), misant sur une défense technique et procédurale. Le message est clair: contester la responsabilité directe des outils d’IA lorsqu’ils sont utilisés d’une certaine manière et éviter qu’un jugement défavorable n’ouvre la porte à une vague de contentieux.
A lire :  OpenAI Critiqué pour Son Dernier Coup Commercial

Les arguments mis en avant par Google

Google soutient que les affirmations de Starbuck découlent d’un mauvais usage d’outils développeurs ayant “provoqué” des hallucinations de l’IA. En substance, la société avance que:

  • l’utilisateur n’a pas documenté les prompts exacts ayant produit les passages litigieux;
  • il n’existe pas de preuve que des personnes réelles ont été induites en erreur par ces sorties d’IA;
  • la responsabilité doit être appréciée à l’aune de la manière dont les outils ont été sollicités, surtout si des instructions conduisent volontairement à du contenu faux.

Cette ligne de défense déplace la responsabilité vers l’usage et le contexte d’activation des modèles, plutôt que vers l’IA elle-même.

Un terrain juridique encore peu balisé

À ce jour, aucun tribunal américain n’a accordé de dommages-intérêts pour diffamation imputable à un chatbot. L’affaire pourrait donc servir de premier grand test sur la responsabilité liée aux contenus générés par l’IA. Si le juge suit l’argumentation de Google, les entreprises technologiques pourraient s’appuyer sur un cadre plus favorable. À l’inverse, un rejet de la motion ou une décision défavorable ouvrirait la voie à davantage d’actions en justice et pousserait les acteurs du secteur à renforcer leurs garde-fous.

Enjeux pour l’industrie et pour le public

Les hallucinations — ces réponses fausses mais formulées avec assurance — sont un défi structurel des modèles modernes. La manière dont les tribunaux répartiront la responsabilité entre:

  • le fournisseur de l’outil (conception, avertissements, garde-fous),
  • l’utilisateur (prompts, contexte, finalités),
    déterminera les futures pratiques: transparence sur les limitations, journaux de prompts, filtres plus stricts, et politiques de gestion des risques plus robustes. À court terme, on peut s’attendre à davantage d’avertissements visibles, à des contrôles renforcés pour les usages “développeurs” et à une communication plus précise sur ce que les systèmes savent — et ne savent pas — faire.
A lire :  Les inquiétudes de Sam Altman : l'IA pourrait-elle connaître un tournant catastrophique ?

Ce que cela pourrait changer

  • Création d’un précédent judiciaire influençant les décisions futures sur l’IA générative.
  • Incitation à mieux tracer et expliquer les contexte d’utilisation et les prompts.
  • Évolution des contrats d’utilisation: clauses explicitant les limites, les droits de recours et les devoirs des utilisateurs.
  • Priorité accrue à la sécurité de l’IA et à la réduction mesurable des erreurs factuelles.

FAQ

Qu’est-ce qu’une “motion to dismiss” ?

C’est une demande de rejet préliminaire d’une affaire. Le défendeur soutient que, même si les faits allégués étaient vrais, la loi ne permet pas de condamner. Si elle est acceptée, le procès s’arrête sans aller au fond.

Une IA peut-elle être tenue pour responsable juridiquement ?

Non, l’IA n’est pas une personne juridique. Ce sont les entreprises qui conçoivent, déploient ou exploitent l’outil qui peuvent être visées, selon la législation applicable et les circonstances de l’affaire.

Comment un utilisateur peut-il limiter les “hallucinations” ?

  • Demander des sources ou des références vérifiables.
  • Éviter les prompts orientés vers des affirmations factuelles sensibles sans vérification.
  • Recouper avec des ressources fiables, surtout pour des sujets réputationnels ou juridiques.

Quelle différence entre un règlement à l’amiable et un jugement ?

Un règlement met fin au litige par accord entre les parties, sans décision du juge sur le fond ni reconnaissance formelle de responsabilité. Un jugement, lui, tranche juridiquement la question et peut créer un précédent.

Les entreprises journalisent-elles les prompts ?

Beaucoup le font à des fins de sécurité, de qualité et d’audit, mais avec des politiques variables et des contraintes de confidentialité. Les bonnes pratiques incluent une information claire des utilisateurs et des mécanismes de protection des données.

A lire :  Snoop Dogg Partage ses Réflexions sur les Dangers de l'IA