Intelligence Artificielle

Anthropic Informe l’Administration Trump sur les Capacités Cybernétiques de Mythos

Anthropic Informe l'Administration Trump sur les Capacités Cybernétiques de Mythos
**Les recommandations de contenu et de produits sur ADGO.ca sont** totalement **indépendantes sur le plan éditorial**. Nous pouvons générer des revenus lorsque vous cliquez sur des liens vers nos partenaires.
**En savoir plus**

La gestion prudente d’Anthropic face à la cybersécurité

Anthropic a récemment informé des responsables du gouvernement de Donald Trump au sujet de son nouveau modèle appelé Mythos. Cette présentation préalable, destinée à des circuits fermés, souligne l’importance que l’entreprise accorde aux implications en matière de cybersécurité de ce modèle.

Actuellement, Mythos n’est pas accessible au public. Anthropic le considère comme un outil ayant un potentiel défensif important, mais il comporte aussi des risques clairs d’utilisation abusive.

Un débat crucial sur la sécurité de l’IA

La question centrale de la discussion sur la sécurité des intelligences artificielles est : que se passe-t-il lorsqu’un modèle peut aider à détecter plus rapidement les vulnérabilités dans le logiciel, mais peut également être exploité par des attaquants ? Pour l’instant, la position d’Anthropic est d’imposer des restrictions d’accès tout en assurant que les autorités comprennent les capacités de ce modèle avant d’en élargir l’accès.

A lire :  Quand l'IA Remplace l'Humain : Des Entreprises Rendent des Comptes à Leur Erreur.

Pourquoi une communication précoce avec le gouvernement ?

Un rapport de TechCrunch indique que le co-fondateur d’Anthropic, Jack Clark, a précisé que l’entreprise prévoit de continuer à discuter de futurs modèles avec des responsables gouvernementaux. Il a qualifié les tensions avec le Pentagone comme un simple désaccord autour des contrats, tout en soulignant le besoin pour le gouvernement d’avoir une visibilité sur les systèmes d’IA aux conséquences pour la sécurité nationale.

Dans le cadre de son projet nommé Glasswing, Anthropic a également révélé que Mythos a déjà permis d’identifier des milliers de vulnérabilités, y compris des failles dans des systèmes d’exploitation majeurs et des navigateurs web. Cela souligne que le modèle peut dépasser les capacités des chercheurs humains.

Risques et déploiement contrôlé

Anthropic justifie le déploiement de Mythos dans un cadre réservé et non pas par une sortie publique, afin de réduire les risques liés à son utilisation. Ce déploiement restrictif façonne déjà le récit entourant le projet Glasswing, permettant à différentes entreprises sélectionnées d’exploiter Mythos pour des travaux de sécurité défensive au lieu de le rendre accessible à un public élargi. Parmi les partenaires figurent des poids lourds comme AWS, Apple, Cisco, JPMorgan Chase, Microsoft, Nvidia et Palo Alto Networks.

Contexte politique et défis internes

La communication avec les responsables gouvernementaux se déroule dans un contexte politique délicat, alors qu’Anthropic est toujours en désaccord sur l’accès aux technologies de l’IA militaire. Cela plonge l’entreprise dans un dilemme : collaborer avec certains départements tout en étant en conflit avec d’autres. Ce conflit souligne la complexité de la situation d’Anthropic.

A lire :  Robots humanoïdes: Pékin avertit d’une bulle spéculative, gonflée par la frénésie d’investissements

Il existe également une pression renouvelée sur Anthropic pour prouver sa capacité à gérer un modèle qu’elle estime trop risqué. Les préoccupations concernant le leak de Mythos avaient déjà soulevé des exigences concernant la sécurité. La présentation aux responsables avant d’élargir l’accès aide à solidifier cette position, mais montre aussi que la responsabilité de la gouvernance repose encore largement sur l’entreprise.

Pour le moment, Anthropic semble avoir fixé des limites strictes autour de Mythos : accès restreint, partenaires sélectionnés et sensibilisation précoce des autorités. La façon dont cette stratégie évoluera pourrait dépendre de la rapidité avec laquelle les décideurs s’adapteront aux nouveaux modèles d’IA à l’approche de la cybersécurité.

FAQ

Quel est le modèle Mythos ?

Mythos est un modèle d’IA développé par Anthropic qui vise à détecter les vulnérabilités dans les systèmes informatiques et à aider à la sécurité des logiciels.

Pourquoi le modèle n’est-il pas accessible au public ?

Anthropic a déterminé que le modèle présente des risques trop élevés pour une utilisation généralisée, d’où un accès restreint pour éviter des abus potentiels.

Qui sont les partenaires d’Anthropic dans le projet Mythos ?

Les partenaires incluent des entreprises majeures telles qu’AWS, Apple, Cisco, JPMorgan Chase, Microsoft, Nvidia et Palo Alto Networks.

Quels sont les enjeux de sécurité nationale associés à Mythos ?

L’utilisation de Mythos soulève des questions sur la manière dont les nouvelles technologies d’IA peuvent avoir des impacts sur la sécurité nationale et la nécessité pour le gouvernement d’avoir un accès contrôlé à ces systèmes.

Quel est l’objectif de Project Glasswing ?

Le projet Glasswing vise à permettre à certaines organisations de tirer parti de Mythos pour renforcer leur sécurité informatique tout en maintenant un contrôle strict sur l’accès au modèle.

A lire :  Application de News Réputée PIncée pour Diffusion d'Articles AI Totalement Faux