Les risques de fuite de données avec ChatGPT
Des chercheurs en sécurité ont découvert que ChatGPT d’OpenAI peut être amené à divulguer des informations personnelles, et ce, grâce à un seul document “empoisonné”. Cela a été révélé lors de la conférence Black Hat, où les experts ont présenté une manière indirecte d’injecter des prompts malveillants. Au lieu d’interagir directement avec le système, les hackers introduisent un document compromettant qui manipule l’intelligence artificielle.
Une vulnérabilité d’accès aux comptes Google
L’accès de ChatGPT à des comptes Gmail lui permet d’explorer facilement les fichiers de l’utilisateur, ce qui augmente le risque d’attaques simples. Cette faille de sécurité met en lumière les faiblesses de la technologie actuelle et suscite des inquiétudes quant à la protection des données personnelles.
Michael Bargury, CTO de Zenity, a souligné que tout cela se passe sans qu’un utilisateur n’ait besoin d’interagir d’une manière ou d’une autre : « Il suffit d’un email et de partager le document. Cela montre que nous avons affaire à une vulnérabilité extrêmement sérieuse. » Ce constat alarmant soulève des questions sur la sécurité des outils d’intelligence artificielle.
Une démonstration inquiétante de la faille
Le mécanisme de ce piratage repose sur l’insertion d’un prompt malveillant de 300 mots caché dans un document, utilisant une police de très petite taille, rendant sa détection par un humain très difficile. Dans une démonstration, Bargury et son équipe ont prouvé que cette méthode pouvait amener ChatGPT à extraire des clés d’API de Google Drive et les transmettre à des attaquants, sans avoir besoin de documents explicites.
Bien qu’OpenAI ait rapidement rectifié la situation après que Bargury ait signalé cette vulnérabilité, l’incident démontre que même des systèmes aussi avancés que ChatGPT peuvent présenter des failles de sécurité.
Connecteurs pour ChatGPT : un risque accru
Le lancement par OpenAI d’un système de Connecteurs pour ChatGPT, permettant d’accéder à des comptes Google, facilite encore plus ce type de vulnérabilité. Au-delà de Google, cette fonctionnalité permet de connecter jusqu’à 17 services différents, augmentant ainsi la possibilité d’extraction d’autres informations personnelles.
Un précédent pour la cybersécurité dans l’IA
Ce n’est pas la première fois que des chercheurs souignent des failles de sécurité dans les systèmes d’intelligence artificielle. Les attaques par injection de prompts indirects ont été observées à plusieurs reprises, exposant des données personnelles. Peu après l’article de Wired, les chercheurs ont rapporté une autre attaque qui a permis aux hackers de prendre le contrôle d’un système de maison intelligente via une invitation Google Calendar empoisonnée.
Préoccupations futures pour les systèmes IA
Ben Nassi, chercheur à l’Université de Tel Aviv, a mis en avant la nécessité de sécuriser ces systèmes avant leur intégration dans des technologies plus avancées, comme les voitures autonomes, où les résultats pourraient concerner la sécurité avant la vie privée. Malgré la connaissance des risques liés aux injections de prompts indirectes, il est clair qu’un besoin urgent d’amélioration dans la cybersécurité des outils d’IA persiste, afin d’éviter de nouvelles vulnérabilités.
FAQ
Quelle est la forme exacte de l’attaque qui a été démontrée ?
L’attaque implique l’insertion d’un texte malveillant dissimulé dans un document à l’aide d’une couleur et d’une taille de police peu perceptibles, permettant à ChatGPT d’exécuter des instructions non intentionnelles.
Pourquoi OpenAI a-t-il rapidement agi après la découverte de la faille ?
OpenAI a compris que les implications de cette vulnérabilité pouvaient compromettre la sécurité des utilisateurs, d’où une intervention rapide pour corriger le problème.
Quelles autres technologies sont exposées à des failles similaires ?
Les systèmes d’IA utilisés dans des contextes variés, comme les maisons intelligentes et les assistants numériques, peuvent également être vulnérables à des attaques par injection de prompts indirectes.
Quel impact cela pourrait-il avoir sur la confiance des utilisateurs ?
Des failles de sécurité comme celles-ci peuvent sérieusement éroder la confiance des utilisateurs envers des outils d’IA, les rendant méfiants quant à l’utilisation de technologies potentiellement invasives.
Quelles mesures peuvent être prises pour sécuriser ces systèmes ?
Des audits réguliers de sécurité, l’éducation des utilisateurs sur les risques et la mise en place de protections sophistiquées sont autant de stratégies essentielles pour améliorer la sécurité des technologies d’intelligence artificielle.
