En savoir plus
Enquête sur l’accès non autorisé à Mythos AI
Anthropic examine des informations selon lesquelles un groupe non autorisé aurait réussi à accéder à son outil de cybersécurité, Mythos AI, quelques jours seulement après son lancement limité en avril 2026.
Un porte-parole d’Anthropic a déclaré : « Nous investiguons un rapport qui évoque un accès non autorisé à Claude Mythos Preview via l’environnement d’un de nos fournisseurs tiers. »
Partage initial du logiciel
L’outil a été partagé avec un petit groupe de partenaires d’entreprise, tels qu’Apple et Goldman Sachs, et n’était pas destiné à un usage public. Cependant, des utilisateurs ont réussi à s’y connecter par l’intermédiaire d’un système lié à un sous-traitant et l’ont utilisé depuis son lancement, suscitant des inquiétudes concernant sa capacité à détecter les vulnérabilités et à simuler des cyberattaques.
Accès via un environnement tiers
Des rapports indiquent qu’Anthropic évalue des allégations selon lesquelles un groupe en ligne privé aurait accédé à Mythos à travers un système de fournisseur tiers. Les enquêtes montrent qu’il n’y a aucune preuve que cette activité ait eu des répercussions sur les systèmes internes d’Anthropic.
The Guardian a révélé qu’un petit nombre d’utilisateurs avait accédé à Mythos le jour même de son introduction auprès de partenaires sélectionnés. De son côté, TechCrunch a précisé que ce groupe avait employé diverses techniques pour obtenir l’accès, y compris en exploitant les informations d’une personne interviewée par Bloomberg, travaillant pour un sous-traitant d’Anthropic.
Les membres de ce groupe font partie d’une communauté Discord privée qui cherche à accéder à des modèles d’IA non publiés. Bloomberg a rapporté qu’ils utilisent Mythos depuis qu’ils ont réussi à obtenir l’accès et ont même fourni des captures d’écran ainsi qu’une démonstration en direct pour corroborer leurs affirmations.
Progrès et mise en garde
Mythos fait partie de l’initiative Project Glasswing d’Anthropic, qui limite son accès à un petit groupe de partenaires d’affaires. L’entreprise a souligné que le modèle a une nature à double usage : tandis qu’il peut aider les organisations à identifier des failles, il pourrait aussi permettre à des attaquants de les exploiter.
Des préoccupations subsistent quant à un éventuel usage abusif du modèle, même si l’AI Security Institute du Royaume-Uni a approuvé Mythos et l’a décrit comme un pas en avant dans les capacités cybersécuritaires. Lors des tests, Mythos a accompli une simulation de cyberattaque en 32 étapes en plusieurs tentatives, une tâche qui nécessiterait habituellement plusieurs jours de la part de professionnels humains.
Le ministre britannique de l’IA, Kanishka Narayan, a exprimé que le modèle pourrait être source d’inquiétude pour les entreprises en raison de sa capacité à détecter des vulnérabilités exploitables par des attaquants.
Gestion du risque tiers
L’accès rapporté met en évidence les défis continus associés à la gestion du risque lié aux tiers, surtout alors que les systèmes d’IA deviennent de plus en plus puissants et répandus. Même si les systèmes internes sont gardés secrets, les environnements des fournisseurs peuvent introduire des points d’exposition.
Financial Review a souligné qu’Anthropic a affirmé ne pas avoir trouvé de preuves que l’incident ait eu des répercussions au-delà de l’environnement de fournisseur. « Les laboratoires d’IA font souvent appel à des sous-traitants pour des tâches comme les tests de modèles, mais il n’était pas clair quel fournisseur était impliqué dans cet incident, » a ajouté le média.
Les régulateurs mondiaux surveillent également la situation. La Reserve Bank of Australia engage des discussions avec d’autres régulateurs et agences gouvernementales pour évaluer les implications sur la résilience du système financier.
L’enquête d’Anthropic est en cours, et l’étendue complète de l’accès demeure floue. Les résultats de cette investigation pourraient influencer la manière dont les entreprises d’IA gèrent les sorties contrôlées de modèles à haut risque.
À lire aussi : L’NSA utilise apparemment Mythos AI d’Anthropic, malgré sa désignation de “risque de chaîne d’approvisionnement”.
FAQ
Qu’est-ce que Mythos AI et à quoi sert-il ?
Mythos AI est un outil de cybersécurité développé par Anthropic, conçu pour détecter des failles dans les systèmes numériques et simuler des cyberattaques.
Quel type de partenaires a accès à Mythos ?
Mythos n’a été distribué qu’à un nombre restreint de partenaires d’entreprise sélectionnés, incluant des géants comme Apple et Goldman Sachs.
Pourquoi l’accès non autorisé à Mythos pose-t-il un problème ?
L’accès non autorisé soulève des inquiétudes quant à la sécurité, car il peut permettre à des attaquants de manipuler le logiciel pour exploiter des vulnérabilités.
Comment les autorités réagissent-elles à cette situation ?
Les régulateurs examinent la situation, s’inquiétant des implications sur la sécurité des systèmes financiers et la gestion des risques liés aux tiers.
Quelle est la prochaine étape pour Anthropic après cette enquête ?
L’enquête est toujours en cours, et les résultats pourraient influencer les politiques de libération des modèles à haut risque dans le futur.
