Intelligence Artificielle

Un juge suspend l’interdiction d’Anthropic et critique l’administration Trump pour « représailles contre le Premier Amendement »

Un juge suspend l'interdiction d'Anthropic et critique l'administration Trump pour « représailles contre le Premier Amendement »
Le contenu et les recommandations de produits d’ADGO.ca sont indépendants sur le plan éditorial. Nous pouvons percevoir des revenus lorsque vous cliquez sur les liens de nos partenaires.

Un juge de San Francisco a récemment perturbé les plans du président Donald Trump de bannir la puissance de l’intelligence artificielle, Anthropic. Ce dernier a conclu que l’action du gouvernement ressemblait davantage à une vengeance politique qu’à une mesure de sécurité nationale.

Une décision inattendue

Jeudi, la juge fédérale Rita Lin a accordé à Anthropic une injunction préliminaire, gelant temporairement plusieurs mesures gouvernementales qui limitaient l’accès des agences fédérales et des entrepreneurs militaires aux modèles d’IA Claude de la société. Cette décision survient dans le cadre d’un affrontement sur la mesure dans laquelle le Pentagone devrait contrôler l’intelligence artificielle.

Dans son ordonnance de 43 pages, la juge Lin ne cache pas sa désapprobation des tactiques utilisées par l’administration. Selon elle, le gouvernement punissait la startup pour avoir tenu tête lors des négociations de contrats.

“Sanctionner Anthropic pour avoir attiré l’attention du public sur la position du gouvernement en matière de contrats est un classique de la rétribution illégale du Premier Amendement,” a-t-elle écrit.

Un langage incisif

Elle s’est particulièrement opposée à la désignation d’Anthropic comme un « risque de chaîne d’approvisionnement », un terme généralement réservé aux adversaires étrangers. Lin a rejeté l’idée qu’une entreprise nationale puisse être considérée comme une menace simplement pour avoir une désaccord politique.

“Aucune disposition dans la législation en vigueur ne soutient la notion orwellienne qu’une entreprise américaine peut être qualifiée de potentiel adversaire et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement,” a affirmé Lin.

Les tensions autour des directives de l’IA

Ce combat juridique a débuté suite à des négociations avortées sur un contrat de 200 millions de dollars l’année dernière. Anthropic cherchait des garanties pour que sa technologie ne soit pas utilisée pour la surveillance de masse ou des armes entièrement autonomes. Le Département de la Défense (qu’on commence aussi à appeler le Département de la Guerre) affirmait avoir besoin d’un accès sans restrictions pour tous les usages « légaux ».

A lire :  Optimisation de l'Utilisation des Ceintures de Sécurité par l'IA de Ford Pro pour les Gestionnaires de Flotte

Lorsque les discussions ont échoué, la réaction de l’administration a été immédiate. Trump a utilisé Truth Social pour ordonner aux agences de cesser immédiatement d’utiliser les services d’Anthropic, déclarant que le destin du pays ne devait pas être déterminé par « une entreprise d’IA radicale, débridée, dirigée par des personnes non conscientes de la réalité ».

Le secrétaire à la Défense, Pete Hegseth, a ensuite qualifié l’entreprise de risque de sécurité, ce que la société a dénoncé comme un acte ayant entraîné un préjudice réputationnel et coûté des centaines de millions en opportunités commerciales.

Une victoire à nuancer

Bien que ce jugement constitue une victoire significative pour Anthropic, il ne signifie pas la fin des tensions. La juge a mis l’ordonnance en attente pour sept jours, permettant au gouvernement de faire appel. Bien qu’il ne puisse pas qualifié la société de risque de chaîne d’approvisionnement, cela ne signifie pas qu’il soit contraint d’acheter ses produits.

Anthropic a exprimé un sentiment de soulagement après le jugement. « Ce cas était nécessaire pour protéger Anthropic, nos clients et partenaires, mais notre objectif reste de collaborer de manière productive avec le gouvernement pour garantir que tous les Américains bénéficient d’une IA sûre et fiable », a indiqué la société.

La défense de l’administration

De son côté, l’administration ne semble pas vouloir céder. Emil Michael, sous-secrétaire à la défense pour la recherche et l’ingénierie, a qualifié cette décision de « scandaleuse », affirmant qu’il y avait de nombreuses erreurs factuelles dans le jugement.

Le gouvernement a jusqu’au 6 avril pour fournir un rapport sur sa conformité avec la décision du juge. Parallèlement, Anthropic poursuit une seconde bataille dans un tribunal d’appel de Washington DC pour renverser totalement la détermination du Pentagone.

A lire :  NVIDIA lance Apollo : des modèles d’IA ouverts pour la physique, dédiés aux entreprises

Pour en savoir plus, il convient de noter que la sénatrice américaine Elizabeth Warren a également qualifié la liste noire d’Anthropic de « représailles » lors d’une audition au Pentagone.

FAQ

Qu’est-ce qu’Anthropic ?

Anthropic est une entreprise spécialisée en intelligence artificielle qui développe des modèles avancés d’IA, dont le modèle Claude.

Quelle est la position de l’administration sur l’IA ?

L’administration actuelle semble privilégier un contrôle strict sur l’IA, incitant les agences fédérales à faire preuve de prudence dans leur collaboration avec des entreprises du secteur.

Que signifie une injonction préliminaire ?

Une injonction préliminaire est une ordonnance d’un juge qui impose des restrictions temporaires jusqu’à ce qu’une décision finale soit rendue dans une affaire judiciaire.

Quel est le rôle du Pentagone dans cette situation ?

Le Pentagone joue un rôle clé dans le débat sur l’utilisation de l’IA dans les armes et la surveillance, en cherchant à maximiser son contrôle sur des technologies de pointe.

Quels sont les risques associés à l’intelligence artificielle selon les autorités ?

Les autorités s’inquiètent des risques liés à l’IA, notamment en matière de sécurité nationale, de surveillance de masse et de technologies militaires autonomes.