Intelligence Artificielle

Les logiciels malveillants exploitent l’IA pour réécrire leur code et échapper à la détection

Les logiciels malveillants exploitent l’IA pour réécrire leur code et échapper à la détection

Des chercheurs de l’équipe de renseignement sur les menaces de Google ont mis au jour une nouvelle génération de logiciels malveillants capables d’exploiter la puissance des grands modèles de langage pour se modifier en temps réel. L’enjeu dépasse la simple ruse technique: il annonce une ère de menaces plus flexibles, plus réactives et donc plus difficiles à repérer.

Ce que les chercheurs ont observé

  • Une famille expérimentale de malware baptisée PROMPTFLUX utilise des LLM pour régénérer des portions de son propre code.
  • Cette adaptation lui permet de changer d’apparence au fil de l’exécution, compliquant le travail des outils de détection.
  • L’approche ne consiste plus à embarquer des fonctions malveillantes figées, mais à les produire à la demande en sollicitant un modèle d’IA.

Un mode opératoire qui se transforme

Au lieu de livrer un programme figé, PROMPTFLUX s’appuie sur l’IA pour:

  • générer dynamiquement des scripts nuisibles,
  • obfusquer ses composants afin de brouiller les signatures,
  • et réécrire les comportements clés quand la détection se resserre.

Pourquoi c’est une rupture

Les malwares adaptatifs existent depuis longtemps, mais l’intégration directe de modèles d’IA pousse plus loin l’idée de code “juste‑à‑temps”: produire uniquement ce qui est nécessaire, au moment opportun, et sous une forme nouvelle. Résultat: une détection plus ardue, car les empreintes changent sans cesse, et une capacité d’évasion accrue face aux filtres traditionnels.

Où en est PROMPTFLUX aujourd’hui

  • Il s’agit d’un cheval de Troie en phase de développement ou de test: certaines fonctions sont incomplètes ou désactivées.
  • Le code communique avec l’API du modèle Gemini pour apprendre comment se modifier et réduire son exposition.
  • Des garde‑fous intégrés limitent le volume d’appels à l’API, indice d’un outillage encore en réglage.

Google signale ne pas avoir observé d’infections “dans la nature” et indique avoir neutralisé les ressources liées à cette activité. À ce stade, le programme ne montre pas la capacité de compromettre un réseau ou un poste utilisateur de bout en bout.

Un écosystème clandestin qui se structure

Les signaux pointent vers des acteurs à motivation financière. Autour de ces outils, un marché souterrain se met en place: kits, modèles, services clés en main. Cette industrialisation diminue la barrière d’entrée pour des attaquants moins chevronnés, en leur fournissant des briques IA prêtes à l’emploi.

Des États qui expérimentent aussi

Au‑delà du crime opportuniste, des acteurs sponsorisés par des États testent l’usage de l’IA pour améliorer leurs opérations. Des équipes liées à la Corée du Nord, à l’Iran et à la Chine explorent déjà ces possibilités, selon Google. La frontière entre expérimentation et déploiement opérationnel pourrait se déplacer rapidement.

Défendre avec l’IA, pas seulement contre l’IA

Face à ces mutations, les chercheurs de Google proposent un cadre conceptuel pour sécuriser systèmes et modèles d’IA, depuis la conception jusqu’à l’exploitation. En parallèle, des outils défensifs émergent: par exemple, un agent nommé Big Sleep vise à repérer automatiquement des failles logicielles grâce à l’IA. L’équation devient claire: IA contre IA, dans une course d’adaptation continue.

Ce que cela implique pour la suite

  • Les outils défensifs devront mieux surveiller les comportements en temps réel, au‑delà des signatures statiques.
  • Les politiques d’usage des API d’IA dans les entreprises (journalisation, limitations, filtrage) deviendront des composants critiques de la cybersécurité.
  • L’innovation ira vite des deux côtés; la gouvernance et la transparence des modèles compteront autant que la technologie elle‑même.

FAQ

PROMPTFLUX est‑il fondamentalement différent des malwares polymorphes du passé ?

Oui. Les malwares polymorphes réécrivaient déjà leur code, mais avec des gabarits prédéfinis. Ici, l’IA génère à la volée des variantes guidées par des prompts et le contexte, ce qui élargit considérablement l’espace des transformations possibles.

Les particuliers sont‑ils directement menacés aujourd’hui ?

À ce stade, l’outil semble expérimental et orienté vers des scénarios de test. Toutefois, si des versions mûres circulent, elles pourraient viser aussi bien des particuliers (vol d’identifiants, fraude) que des entreprises.

Comment une organisation peut‑elle se préparer sans attendre ?

  • Mettre en place une surveillance des appels d’API d’IA (journalisation, quotas, listes d’autorisation).
  • Renforcer la détection comportementale côté endpoints et serveurs.
  • Isoler et segmenter les accès aux services critiques.
  • Former les équipes à reconnaître les signes d’automatisation inhabituels liés à l’IA.

Les fournisseurs d’IA peuvent‑ils limiter l’abus de leurs modèles ?

Oui, via des politiques d’usage, des filtres de sécurité, la détection d’anomalies d’appels, et la désactivation de ressources suspectes. Une collaboration étroite avec l’écosystème (CERT, éditeurs de sécurité, chercheurs) est essentielle.

Que changeront ces menaces pour les antivirus et EDR ?

Ils devront combiner analyse statique, surveillance d’exécution, et corrélation multi‑signaux (réseau, API, mémoire). La capacité à comprendre des séquences et non de simples fichiers deviendra déterminante face à des charges générées “juste‑à‑temps”.

Quitter la version mobile