Conflit entre l’administration Trump et Anthropic
L’administration Trump fait face à un nouveau défi dans son opposition à la société d’intelligence artificielle Anthropic : les professionnels de la technologie de la Silicon Valley. Plus de 700 000 travailleurs représentant des entreprises comme Amazon, Google, Microsoft et OpenAI se sont unis pour demander à leurs employeurs de soutenir Anthropic dans son refus d’accepter des exigences récentes du Pentagone.
Dans un courrier, ces groupes soulignent l’importance des garde-fous de sécurité pour Claude, le modèle d’IA produit par Anthropic, lequel est actuellement employé dans des opérations classifiées au sein du Ministère de la Défense. Ce message s’inscrit dans un contexte où le Pentagone a mis en avant des conditions qui pourraient affaiblir ces protections.
Ultimatum du Pentagone
Cette semaine, le Pentagone a demandé à Anthropic de supprimer deux mesures essentielles : l’une interdisant la surveillance massive à l’intérieur du pays, et l’autre empêchant l’utilisation d’IA pour créer des armes autonomes. Bien que ces contraintes aient été acceptées lors d’un contrat antérieur, la pression a augmenté, menaçant de retirer l’accès à Claude si Anthropic ne se pliait pas.
Des rencontres récentes semblent avoir intensifié les tensions, notamment des discussions sur l’utilisation de cette technologie dans des scénarios militaires critiques. Dans ce climat, les travailleurs affirment que si l’une de ces entreprises technologiques se plie aux exigences du Pentagone, cela pourrait permettre au gouvernement de surveiller la population de manière massive et de développer des drones d’IA létaux sans interaction humaine.
Position de Dario Amodei, le PDG d’Anthropic
Malgré la pression croissante, Dario Amodei, le directeur d’Anthropic, a refusé de céder. Dans une déclaration officielle, il a exprimé son inquiétude concernant la position du Pentagone, qui, selon lui, manque de cohérence : d’un côté, ils le désignent comme un risque de sécurité, et de l’autre, ils le considèrent comme essentiel à la sécurité nationale. Il a affirmé que, par principe, Anthropic ne pouvait pas répondre à cette demande.
Le délai fixé pour se conformer est le 27 février à 17h01. Dans un soutien surprenant à Anthropic, Sam Altman, PDG d’OpenAI et ancien rival d’Amodei, a également pris position. Il a déclaré que la question dépasse le cadre d’Anthropic et du Pentagone, touchant l’ensemble de l’industrie technologique. Selon lui, il est impératif que la technologie ne soit pas utilisée à des fins de surveillance de masse ou pour créer des armes autonomes.
Les implications éthiques et commerciales
Cette situation soulève des interrogations éthiques concernant le contrat de 200 millions de dollars entre Anthropic et le Ministère de la Défense. Si la somme paraît insignifiante compte tenu de la valorisation d’Anthropic à 380 milliards, le risque lié à l’image et à la légalité d’une telle coopération est considérable, surtout avec les efforts des Nations Unies pour interdire les armes autonomes.
Le soutien du public et les répercussions de Trump
À l’approche de la date limite, Donald Trump a exprimé son indignation sur les réseaux sociaux, critiquant Anthropic pour avoir tenté de forcer le Pentagone à respecter ces termes. Il a ordonné à toutes les agences fédérales d’arrêter d’utiliser la technologie d’Anthropic, ajoutant que bien qu’il y ait besoin d’une période de transition de six mois pour écarter leurs produits, la détermination de son administration reste claire.
FAQ
Quelle est la position des travailleurs de la technologie face à cette situation ?
Des centaines de milliers de travailleurs de grandes entreprises de technologie se sont exprimés pour soutenir Anthropic et dénoncer les exigences du Pentagone.
Quelles sont les conséquences possibles d’une suppression des garde-fous pour Claude ?
Sans ces garde-fous, l’utilisation de Claude pourrait ouvrir la voie à des pratiques de surveillance massive et à la création d’armes autonomes, compromettant ainsi la sécurité publique.
D’autres entreprises technologiques ont-elles réagi ?
OpenAI, sous la direction de Sam Altman, a manifesté un soutien à Anthropic, soulignant l’importance de maintenir des lignes rouges contre l’usage irresponsable de l’IA.
Comment le Pentagone justifie-t-il ses demandes ?
Le Pentagone affirme que ces ajustements sont nécessaires pour avancer technologiquement, mais cela a suscité des inquiétudes éthiques concernant la surveillance et l’armement autonome.
Y a-t-il des précédents similaires dans le domaine de l’IA ?
Oui, des tensions semblables ont déjà été observées dans le passé, notamment avec d’autres entreprises travaillant sur des technologies sensibles et leur relation avec des agences gouvernementales.
