Intelligence Artificielle

L’IA Copilot de Microsoft intégrée à Windows : une vulnérabilité accrue selon les recherches.

L'IA Copilot de Microsoft intégrée à Windows : une vulnérabilité accrue selon les recherches.

Les risques de Microsoft Copilot

Une recherche récente révèle que l’intelligence artificielle Copilot de Microsoft peut être facilement manipulée pour divulguer des informations sensibles d’une entreprise, comme des emails et des transactions bancaires. D’après un rapport de Wired, cette IA pourrait même devenir un outil de phishing redoutable, nécessitant peu d’efforts pour être exploitée à des fins malveillantes.

Manipulation à grande échelle

Michael Bargury, cofondateur et CTO de la société de sécurité Zenity, a démontré lors de la conférence de sécurité Black Hat de Las Vegas les failles de cette technologie. Il a expliqué qu’un pirate pourrait envoyer des centaines d’emails en quelques minutes, quelque chose qui prendrait normalement des jours à être soigneusement élaboré.

Détournement d’identité

Sans avoir besoin d’accéder à un compte d’entreprise, Bargury a montré qu’il était possible de pousser le chatbot à Modifier le destinataire d’un virement simplement en envoyant un email malveillant, que l’employé ciblé n’a même pas besoin d’ouvrir.

Dans une autre démonstration, il a utilisé un compte piraté pour illustrer les dégâts potentiels qu’un hacker pourrait causer. En posant des questions simples au chatbot, il a pu extraire des informations sensibles qu’il pourrait exploiter pour concevoir une attaque de phishing, se faisant passer pour un employé de l’entreprise.

L’illusion de la personnalisation

L’outil Copilot Studio de Microsoft permet aux entreprises de personnaliser leurs chatbots. Cependant, cela nécessite un accès aux données de l’entreprise, ce qui ouvre la porte à des vulnérabilités. De nombreux chatbots sont disponibles en ligne par défaut, ce qui les rend faciles à cibler pour les hackers avec des requêtes malveillantes. Bargury a mentionné avoir découvert des dizaines de milliers de ces bots en scannant Internet.

Par ailleurs, un exemple astucieux de contournement des sécurités de Copilot réside dans l’injection de données malveillantes provenant de sources extérieures. En incitant le chatbot à visiter un site contenant une requête malveillante, une personne mal intentionnée peut le forcer à réaliser des actions interdites.

Conclusion sur le dilemme des données

Bargury souligne un point crucial : lorsque l’IA obtient accès à des données, celles-ci deviennent un point d’entrée pour des attaques par injection. Il trouve même une note ironique dans la situation : si un bot est utile, il est vulnérable, mais s’il est protégé, il devient moins fonctionnel.

FAQ

Quelles sont les implications de l’utilisation de l’IA en entreprise ?

L’utilisation de l’IA peut améliorer l’efficacité, mais elle nécessite une vigilance constante pour éviter des abus et des fuites de données.

Comment protéger les chatbots contre les attaques ?

Des mesures telles que des protocoles de sécurité renforcés, une formation des employés et des mises à jour régulières du logiciel peuvent aider à réduire les risques.

Quelle est la différence entre phishing et hameçonnage ?

Le phishing est une technique de fraude en ligne visant à obtenir des informations sensibles, tandis que le terme “hameçonnage” est souvent utilisé pour décrire des approches plus large et variées d’escroquerie en ligne.

L’IA peut-elle être améliorée pour réduire les risques de sécurité ?

Oui, des mises à jour des algorithmes et des modèles d’apprentissage peuvent renforcer la sécurité, mais cela demande un effort continu des développeurs et des entreprises.

Quels sont les types de données sensibles les entreprises doivent protéger ?

Les emails, les données financières, les informations personnelles des employés, ainsi que toutes les données clients précieuses doivent être particulièrement sécurisées.

Quitter la version mobile