Intelligence Artificielle

La NSA Utilise Apparemment l’IA Mythos d’Anthropic Malgré une Évaluation de Risque de Chaîne d’Approvisionnement

La NSA Utilise Apparemment l'IA Mythos d'Anthropic Malgré une Évaluation de Risque de Chaîne d'Approvisionnement

Le contenu d’ADGO.ca est totalement indépendant et nos recommandations de produits ne sont pas influencées par d’éventuelles rémunérations lorsque vous cliquez sur nos partenaires.

Utilisation du modèle Mythos par la NSA

Il a été rapporté que la National Security Agency (NSA) utilise le dernier modèle d’intelligence artificielle d’Anthropic, connu sous le nom de Mythos Preview, malgré le fait qu’Anthropic soit actuellement qualifié de “risque de chaîne d’approvisionnement” par le Department of Defense (DoD), l’organisme de tutelle de la NSA.

Un rapport divulgué mentionne que l’utilisation militaire de Mythos s’étend, en raison des capacités prometteuses du modèle. La NSA s’en sert pour vérifier ses propres systèmes et détecter d’éventuelles vulnérabilités de sécurité.

Contexte et accès restreint

D’après des sources rapportées par Axios, la NSA aurait été l’une des 40 organisations ayant obtenu un accès restreint à Mythos. Ce mécanisme d’accès se déroule dans un contexte où Anthropic se prépare à défier en justice le DoD quant à cette désignation, le ministère de la Défense affirmant que l’utilisation des outils d’Anthropic compromet la sécurité nationale.

Ce n’est pas la première fois que le DoD semble ignorer sa propre désignation de chaîne d’approvisionnement ; des rapports passés indiquent que lors des préparations pour le conflit en Iran, le département a utilisé le modèle d’Anthropic pour traiter d’importants volumes de données, résumer des documents et organiser des informations logistiques.

Évolution des perceptions gouvernementales

Il semblerait que l’administration Trump ait changé sa perception d’Anthropic, surtout après une première présentation des capacités de Mythos. À l’heure où les modèles d’intelligence artificielle deviennent de plus en plus sophistiqués, l’accès à ces technologies avancées est crucial pour des tâches variées comme la détection des vulnérabilités logicielles, l’ingénierie des logiciels et l’analyse de données.

Mythos et ses utilisateurs

Un partenariat, nommé Project Glasswing, a été formé par environ 40 organisations pour utiliser le modèle Mythos dans le but d’identifier et de résoudre les faiblesses avant qu’elles ne soient exploitées. Parmi ces organisations, on trouve des gouvernements et des entreprises d’infrastructure majeures comme Amazon, Microsoft, Apple, et Nvidia, ainsi qu’un petit nombre d’institutions financières.

Les premiers tests du modèle Mythos montrent qu’il surpasse les systèmes précédents en matière de détection de vulnérabilités, ce qui représente un risque considérable pour les systèmes hérités utilisés par les institutions financières.

Performances comparées et précautions

Dans une récente annonce, Anthropic a mis en avant les performances de son modèle Opus par rapport à Mythos. Ce dernier a fait mieux dans plusieurs domaines comme la programmation agentique, le raisonnement multidisciplinaire, et le raisonnement visuel, indiquant ainsi un progrès significatif des capacités d’AI.

Cependant, l’avenir de Mythos demeure incertain ; il n’est pas clair si Anthropic lancera finalement le modèle sous sa forme actuelle. Lors de l’annonce d’Opus 4.7, l’entreprise a révélé avoir réduit les capacités cybernétiques du modèle et renforcé les garde-fous. De son côté, OpenAI aurait également limité l’accès à son modèle GPT-5.4-Cyber à quelques organisations, en raison de préoccupations similaires.

En limitant l’accès à ces modèles d’intelligence artificielle à un cercle restreint, des entreprises comme Anthropic pourraient se protéger contre d’éventuelles poursuites judiciaires, tout en faisant face à des critiques pour avoir fourni des systèmes très avancés à des départements gouvernementaux. Si des experts en sécurité et en efficacité des IA n’ont pas accès à ces modèles, leur efficacité réelle et les risques qu’ils représentent pour les utilisateurs d’Internet peuvent rester flous.

L’Institut de sécurité de l’IA du Royaume-Uni aurait gagné un accès à Mythos, mais une distribution plus large aux agences de sécurité et de sûreté pourrait être nécessaire pour garantir une surveillance continue.

Lisez aussi : La récente sortie de Claude 4.7 d’Anthropic fournit des informations sur l’évolution rapide des systèmes d’IA les plus avancés de l’entreprise.

FAQ

Qu’est-ce que le modèle Mythos ?

Le modèle Mythos est le dernier modèle d’intelligence artificielle développé par Anthropic, conçu pour détecter et corriger des vulnérabilités avant leur exploitation.

Pourquoi la NSA utilise-t-elle Mythos malgré les risques associés ?

La NSA estime que les capacités avancées de Mythos peuvent l’aider à identifier des failles de sécurité dans ses systèmes, malgré les préoccupations liées à l’évaluation de risque de chaîne d’approvisionnement.

Quelles sont les implications pour la sécurité nationale ?

L’accès à des systèmes d’IA avancés comme Mythos pourrait avoir un impact significatif sur la sécurité nationale, en permettant de mieux se défendre contre les cyberattaques.

Comment le Project Glasswing contribue-t-il à la cybersécurité ?

Le Project Glasswing regroupe différentes organisations pour travailler ensemble afin d’utiliser le modèle Mythos pour détecter et corriger les faiblesses systémiques avant qu’elles ne soient exploitées.

Que fait Anthropic pour atténuer les risques potentiels des IA ?

Anthropic impose des gardes-fous et limite l’accès de ses modèles, ce qui vise à équilibrer l’innovation en intelligence artificielle et la nécessité de protéger la sécurité publique.

Quitter la version mobile