Inscription à la newsletter
Rejoignez-nous pour découvrir les avancées de demain dès aujourd’hui. Restez informé des innovations incontournables qui émergent des frontières de la science et de la technologie grâce à notre contenu exclusif.
La montée des cybermenaces
Des experts alertent sur le potentiel néfaste des modèles de langage tels que ChatGPT d’OpenAI. En effet, ces outils peuvent être détournés pour des usages malintentionnés, comme la rédaction à grande échelle de phishing à l’aide d’e-mails frauduleux.
Avec l’apparition d’un nouveau bot d’intelligence artificielle similaire à ChatGPT, il devient encore plus facile pour quiconque de concevoir des logiciels malveillants. Ce bot, connu sous le nom de WormGPT, pourrait permettre la génération de malwares sophistiqués sans rencontrer de contraintes éthiques, contrairement aux systèmes plus sécurisés comme ChatGPT.
WormGPT, apparemment formé sur des données de logiciels malveillants, ne fait pas usage de mesures de sécurité. Il est capable de créer des programmes malveillants en Python, comme l’ont démontré plusieurs captures d’écran publiées par des sources technologiques.
La situation crée un contexte inquiétant pour la cybersécurité, déjà complexe. L’avènement de l’IA entraîne le secteur dans des territoires dangereux. Même si WormGPT ne va pas « hacker la planète » dans l’immédiat, cela reste un signe inquiétant de l’avenir.
Prévisions alarmantes
Des employés de SlashNext ont découvert WormGPT sur un forum dédié aux hackers. Depuis mars, le développeur propose l’accès à ce bot à ceux qui souhaitent l’utiliser à des fins illicites.
WormGPT repose sur un ancien modèle de langage, le GPT-J, développé par un groupe à but non lucratif qui œuvre pour des programmes d’IA open source. Le marché noir voit déjà des utilisateurs payer 67,44 $ par mois pour profiter des fonctionnalités du bot.
Performances du bot
Les chercheurs de SlashNext ont été frappés par la capacité de WormGPT à rédiger des e-mails de phishing qui sont à la fois convaincants et habiles. Selon eux, ces messages mettent en évidence le risque croissant lié à la cybercriminalité ciblée.
Cependant, certains utilisateurs ont exprimé des doutes quant à sa qualité, suggérant que le service ne vaut pas le prix qu’ils en demandent.
Malgré ces critiques, WormGPT témoigne d’une réalité préoccupante : les menaces liées à la cybercriminalité pourraient devenir plus sophistiquées, compliquant la protection de notre argent et de nos données. Cette situation pourrait également s’avérer défavorable pour l’industrie de l’IA émergente.
FAQ
Qu’est-ce que WormGPT ?
WormGPT est un bot d’intelligence artificielle capable de générer des logiciels malveillants et des e-mails de phishing, sans les contraintes éthiques des modèles de langage traditionnel.
Comment WormGPT diffère-t-il des autres modèles de langage ?
Contrairement à des modèles comme ChatGPT, WormGPT n’intègre pas de gardes-fous et est spécifiquement entraîné sur des données relatives aux malwares.
Quels risques présente WormGPT pour la cybersécurité ?
WormGPT pourrait faciliter des cyberattaques plus élaborées, rendant les systèmes plus vulnérables et compliquant la lutte contre la cybercriminalité.
Qui utilise WormGPT ?
Des hackers sur des forums dédiés s’échangent l’accès à WormGPT, en annonçant qu’il permet de réaliser diverses activités illégales.
Quel est l’avenir des modèles de langage dans le domaine de la cybersécurité ?
L’émergence de modèles comme WormGPT soulève des préoccupations quant à leur utilisation pour des fins malveillantes, ce qui pourrait avoir des conséquences importantes pour la sécurité numérique à l’avenir.
