Intelligence Artificielle

OpenAI Dévoile que l’IA Peut Vidanger un Portefeuille Crypto… Intentionnellement.

OpenAI Dévoile que l'IA Peut Vidanger un Portefeuille Crypto… Intentionnellement.

Les recommandations de produits et de contenu sur ADGO.ca sont éditorialement indépendantes. Nous pourrions gagner de l’argent si vous cliquez sur les liens vers nos partenaires.

Une nouvelle inquiétante pour les amateurs de crypto

Voici une affirmation qui pourrait susciter l’inquiétude des passionnés de cryptomonnaie : le dernier agent de codage d’OpenAI, le GPT 5.3-Codex, est capable de pirater et de siphonner des fonds de contrats intelligents vulnérables avec un taux de réussite de 72 %.

En collaboration avec la société d’investissement dans la crypto, Paradigm, OpenAI vient de lancer un nouvel outil appelé EVMbench. Cet outil permet d’évaluer la capacité des agents d’IA à identifier, corriger et exploiter les failles de sécurité dans les contrats intelligents, qui gèrent plus de 100 milliards de dollars en actifs numériques.

Comprendre les contrats intelligents

Pour ceux qui ne sont pas familiers avec la cryptomonnaie, les contrats intelligents peuvent être vus comme des coffres-forts automatisés. Ils détiennent votre argent et exécutent des règles codées. Si un bug se glisse dans ce code, il est possible de vider le coffre-fort. Contrairement aux banques traditionnelles, il n’y a pas de service client pour résoudre le problème ; les conséquences sont irréversibles.

A lire :  Anthropic Déchire des Millions de Livres Physiques pour Entraîner son IA

Note complémentaire : Existe-t-il des contrats intelligents qui intègrent une IA pour analyser les règles codées avant leur exécution afin de prévenir ce type de situation ?

Résultats de l’évaluation

Les résultats des évaluations montrent que le GPT-5.3-Codex a réussi à compléter des tâches d’exploitation avec un score de 72.2 %, c’est-à-dire qu’il a siphonné des fonds de contrats vulnérables près des trois quarts du temps. Pour mettre cela en perspective, le GPT-5 avait obtenu un score de 31.9 % sur les mêmes tâches il y a six mois.

Il apparait que l’IA excelle davantage dans l’attaque que dans la défense. Identifier les failles et les corriger reste un défi. Le meilleur modèle d’IA a réussi à repérer seulement environ 46 % des vulnérabilités.

Comment améliorer les performances

En fournissant à l’IA une petite indication sur où chercher, le taux de réussite pour corriger les failles passe de 39 % à 94 %. Le problème principal n’est donc pas une question de compétences, mais plutôt une problématique de recherche.

Un cas d’étude frappant

Le document présente également un exemple saisissant : un agent GPT-5.2 a mené à bien une attaque par flash loan, une exploitation complexe en plusieurs étapes, réussissant à siphonner l’intégralité d’un coffre-fort de test en une seule transaction, sans aucune guidance humaine ni instructions pas à pas.

OpenAI et l’avenir de la cybersécurité

OpenAI veut présenter cette technologie comme un outil défensif, avec un investissement de 10 millions de dollars en crédits API destinés aux chercheurs en cybersécurité. De plus, ils élargissent leur programme bêta d’Aardvark, leur agent de recherche en sécurité IA, ainsi qu’un nouveau programme Trusted Access for Cyber pour des professionnels de la sécurité validés.

A lire :  Des Sites d'Actualités Utilisent des Chatbots IA pour Produire du Contenu Douteux.

L’importance de ces développements

Le même agent d’IA qui peut rédiger vos e-mails et déboguer votre code est désormais capable de siphonner des fonds d’un coffre-fort crypto en quelques minutes. L’espoir est que les défenseurs adoptent ces outils plus rapidement que les attaquants. La compétition entre l’offensive et la défense alimentée par l’IA est très réelle, et il semble que l’offensive prenne, pour le moment, l’avantage.

Remarque de l’éditeur : Cet article a initialement paru dans la newsletter de notre publication sœur, The Neuron. Pour en lire davantage, inscrivez-vous à leur newsletter sur leur site.


FAQ

Pourquoi la cybersécurité est-elle plus importante que jamais ?

Avec l’augmentation des actifs numériques, les attaques ciblant des contrats intelligents sont en plein essor. Protéger ces actifs devient primordial.

Qu’est-ce qu’un contrat intelligent ?

Il s’agit d’un programme informatique qui exécute automatiquement des accords au sein de la blockchain, sans nécessiter d’intervention humaine.

Quelles sont les implications éthiques de l’IA dans la cybersécurité ?

L’utilisation d’IA pour exploiter des failles soulève des questions éthiques sur la responsabilité des créateurs et l’impact sur la sécurité publique.

Comment les entreprises se préparent-elles à ces nouvelles menaces ?

De nombreuses entreprises investissent dans des solutions d’IA pour renforcer la cybersécurité et se former à la détection et à la réponse aux menaces.

Quels sont les risques associés à l’utilisation des contrats intelligents ?

Les bugs et les failles de sécurité dans les contrats intelligents peuvent entraîner de lourdes pertes financières, ce qui souligne la nécessité d’une audite rigoureuse avant déploiement.