Intelligence Artificielle

Anthropic Poursuit l’Administration Trump Sur l’Étiquetage de Risque de Fourniture du Pentagone

Anthropic Poursuit l'Administration Trump Sur l'Étiquetage de Risque de Fourniture du Pentagone
Les recommandations de contenu et de produits d’ADGO.ca sont éditorialement indépendantes. Nous pouvons toucher des commissions lorsque vous cliquez sur des liens vers nos partenaires.
En savoir plus

Anthropic attaque l’administration Trump

Anthropic a décidé de porter plainte contre l’administration Trump après avoir été qualifiée de « risque pour la chaîne d’approvisionnement » par le ministère de la Défense, ce qui lui interdit de fournir des produits au gouvernement et à ses sous-traitants dans le cadre de missions de défense.

Cette décision a été confirmée récemment par le secrétaire à la Défense, Pete Hegseth, marquant la fin d’une période de tensions croissantes entre la société d’IA et l’administration. Le cœur du conflit réside dans la demande d’Anthropic pour des garanties supplémentaires que son modèle d’IA, Claude, ne sera pas utilisé pour des armes autonomes ni pour des surveillances de masse.

Une plainte qui soulève des questions

Anthropic a formellement poursuivi le gouvernement, arguant que la désignation de risque pour la chaîne d’approvisionnement dépasse le cadre d’un simple litige contractuel et que l’administration a négligé des procédures standards. De plus, la société accuse Donald Trump d’outrepasser ses prérogatives présidentielles en ordonnant à toutes les agences fédérales de ne plus collaborer avec elle.

A lire :  Un Expert en IA Suggère qu'Elon Musk Devrait Soutenir Kamala Harris s'il Agissait de Manière Rationnelle

Dans sa plainte, Anthropic affirme que l’étiquetage en tant que risque pour la chaîne d’approvisionnement, associé aux commentaires du président et d’autres membres de l’administration, met en péril des centaines de millions de dollars. Cela survient malgré les déclarations de Dario Amodei, PDG d’Anthropic, qui a affirmé que l’impact de cette situation serait limité et que la société s’en sortirait sans trop de difficultés.

Impacts sur les opérations d’Anthropic

Claude a été déployé dans divers domaines du Pentagone, agissant comme un outil de soutien pour des évaluations de renseignement et des recommandations de ciblage, notamment grâce à un partenariat avec Palantir. D’autres agences ont également adopté son utilisation.

Suite à cette désignation de risque, OpenAI a rapidement signé un nouveau contrat avec le Pentagone. Son PDG, Sam Altman, a défendu cette collaboration, précisant qu’elle incorporait des lignes rouges similaires à celles d’Anthropic tout en ajoutant une clause interdisant l’utilisation de son modèle GPT dans des systèmes de notation sociale. Cependant, cette décision a conduit à une réaction interne, avec la démission du responsable de la robotique de l’entreprise, qui a dénoncé des « lignes éthiques » franchies.

Des rivalités en forte intensité

Les divergences entre ces acteurs majeurs de l’IA deviennent de plus en plus visibles, même si les questions morales et éthiques concernant leurs technologies restent incertaines. Anthropic a, par ailleurs, assoupli sa politique de développement responsable pour accélerer la création de ses modèles d’IA.

Malgré sa volonté de se positionner comme une alternative plus sûre à OpenAI, la société continue de rechercher et de développer des outils qui pourraient tomber entre de mauvaises mains. Récemment, son responsable de la sécurité a démissionné, alertant déjà sur le fait que « le monde est en danger ».

A lire :  Pourquoi Elon Musk s'en prend à son propre chatbot IA, Grok ?

Critiques extérieures et montée en puissance

Anthropic n’est pas seule au centre des critiques. Elon Musk, cofondateur de xAI, a récemment attaqué l’entreprise, qualifiant ses modèles de « misanthropiques et malveillants » lors d’une déclaration faite peu après qu’Anthropic ait réussi une levée de fonds attribuant à la société une valorisation de 380 milliards de dollars.

Une période florissante pour Anthropic

Bien que la désignation de risque ait pu freiner certaines de ses activités, Anthropic a récemment connu une forte croissance. Sa popularité a explosé, notamment sur le marché des entreprises où son modèle Opus 4.5 est largement reconnu pour exceller dans les tâches de codage et d’autres activités professionnelles.

Cette ascension a permis à Anthropic de devenir un acteur clé dans le changement des perceptions du marché, notamment avec le lancement d’un outil juridique destiné à faciliter la lecture et l’analyse de documents, conduisant à une chute des actions de plusieurs grandes entreprises juridiques.

Un événement similaire a eu lieu quelques semaines plus tard lorsque la société a annoncé un outil comparable pour l’industrie financière.

FAQ

Qu’est-ce qu’Anthropic ?

Anthropic est une entreprise spécialisée dans l’intelligence artificielle, connue pour son modèle d’IA nommé Claude, qui se concentre sur des pratiques éthiques et responsables.

Pourquoi l’administration Trump a-t-elle désigné Anthropic comme un risque ?

La désignation vise à protéger la sécurité nationale, soupçonnant Anthropic d’avoir des liens potentiels avec des applications militaires controversées ou des systèmes de surveillance.

Quel est l’impact de cette désignation sur l’industrie de l’IA ?

Cette décision pourrait freiner la collaboration entre Anthropic et le gouvernement américain, limitant potentiellement l’innovation et la concurrence dans le secteur.

A lire :  Alan Dye, Responsable du Design UI d'Apple, Rejoint Meta : Un Grand Changement

Comment Anthropic se positionne-t-elle par rapport à OpenAI ?

Anthropic tente de se différencier d’OpenAI en mettant en avant une approche plus sûre, tout en se lançant dans le développement rapide de nouveaux outils pour divers secteurs.

Qui d’autre critique Anthropic, et pourquoi ?

Des figures comme Elon Musk critiquent Anthropic pour ses pratiques et ses modèles, en les jugeant dangereux ou contraires à des principes éthiques.