Les recommandations de contenu et de produits sur ADGO.ca sont totalement indépendantes sur le plan éditorial. Nous pouvons percevoir des revenus lorsque vous cliquez sur les liens de nos partenaires.
En savoir plus
Des hackers tentent de reproduire Gemini de Google avec plus de 100 000 IA en action.
- by Équipe de ADGO.ca
- 13 février 2026
Sommaire
ToggleLes attaques ciblant Gemini de Google
Google a conçu Gemini pour répondre à des questions. Cependant, des cybercriminels détournent ces questions comme un moyen de contourner les systèmes de sécurité.
Actuellement, plus de 100 000 requêtes minutieusement élaborées ont été utilisées pour harceler le chatbot Gemini, ce que Google qualifie d’attaques de « model extraction » ou de « distillation ». Ces attaquants tentent, par une étude systématique, de rétroconcevoir la logique, les modèles de raisonnement et le fil de pensée du système afin de créer leurs propres IA, et ce, sans le coût exorbitant de l’entraînement d’un modèle depuis le début.
Origines des attaques
Google indique que ces activités malveillantes semblent provenir de pays tels que la Corée du Nord, la Russie et la Chine. Ces actes sont considérés par l’entreprise comme un vol de propriété intellectuelle et une violation manifeste de ses conditions d’utilisation.
D’autres entreprises en danger
Cependant, il se pourrait que Gemini ne soit que le premier acte d’une pièce bien plus vaste.
John Hultquist, analyste principal au sein du groupe de Threat Intelligence de Google, a expliqué à NBC News que, bien que Gemini soit l’un des premiers ciblés, d’autres entreprises pourraient aussi faire l’objet de telles attaques sur leurs outils IA personnalisés. Selon lui, cela signifie que nous pourrions constater un nombre croissant d’incidents similaires.
« Nous serons le canari dans la mine de charbon pour beaucoup d’autres événements, » a-t-il affirmé.
Une tendance à la hausse
Les experts préviennent que cette tendance est amenée à se renforcer. Melissa Ruzzi, directrice de l’IA chez AppOmni, a déclaré à TechRepublic : « Étant donné le coût de formation de nouveaux modèles, il n’est pas surprenant de voir apparaître des attaques de model extraction, qui constituent une méthode illégale pour tenter de gagner du terrain. » Selon elle, l’utilisation de l’IA dans les attaques va se multiplier.
Google souligne que la logique propriétaire et la formation spécialisée des grands modèles de langage font d’eux des cibles de choix. Alors que les attaquants se contentaient autrefois de procédures d’intrusion classiques pour voler des secrets commerciaux, ils peuvent maintenant accéder à des API légitimes pour tenter de « cloner » certaines capacités des modèles d’IA.
Les risques associés à l’IA agentique
Le cabinet d’avocats Shumaker, Loop & Kendrick met également en lumière les menaces supplémentaires que représentent les systèmes d’IA agentique. Lorsque les entreprises donnent accès à des agents d’IA à des systèmes sensibles, cela peut entraîner des fuites de données qui sapent en silence des secrets commerciaux, des brevets, des marques et des droits d’auteur.
« En divulguant des données, l’IA agentique peut progressivement éroder les droits de propriété intellectuelle, à moins que les paramètres par défaut ne soient ajustés, » mentionne le cabinet dans un récent article de blog.
Une recommandation cruciale
Il est conseillé aux entreprises de ne donner des identifiants aux agents que pour les tâches spécifiques qu’ils sont censés réaliser.
Lectures en lien : Google teste également des défenses IA dans Chrome, en offrant jusqu’à 20 000 $ à des chercheurs capables de révéler des vulnérabilités dans ses fonctionnalités d’IA.
FAQ
Quels types de menaces les systèmes IA rencontrent-ils actuellement ?
De nombreux systèmes IA sont désormais ciblés par des attaques informatiques, particulièrement ceux qui traitent des données sensibles ou des secrets commerciaux.
Comment les entreprises peuvent-elles se protéger contre ces attaques ?
Il est essentiel pour les entreprises de limiter l’accès aux données sensibles et de surveiller l’utilisation des API par leurs systèmes d’IA.
Quelles conséquences peuvent résulter d’une fuite de données ?
Les fuites de données peuvent mener à des pertes financières, à des violations de la propriété intellectuelle et à des dommages à la réputation de l’entreprise.
Existe-t-il des outils pour détecter ces attaques ?
Oui, il existe plusieurs outils de sécurité spécialisés qui peuvent aider à détecter et à prévenir les attaques ciblant des systèmes d’IA.
Quelle est l’importance de la formation des employés sur la cybersécurité ?
Former les employés aux meilleures pratiques de cybersécurité est crucial pour réduire les risques d’attaques et protéger les informations sensibles.
