Intelligence Artificielle

Pirate Publie une Version Débridée “Godmode” de ChatGPT

Pirate Publie une Version Débridée “Godmode” de ChatGPT

Un chatbot nouvellement libéré fait parler de lui

Un hacker a dévoilé une version modifiée de ChatGPT, baptisée “GODMODE GPT.” Ce chatbot, conçu pour contourner les restrictions habituelles mises en place par OpenAI, a été annoncé sur X (anciennement Twitter) par un utilisateur se présentant comme Pliny the Prompter. Cette personne se décrit comme un opérateur blanc et membre d’une équipe d’experts en sécurité informatique dédiée à l’intelligence artificielle.

Déclaration triomphante

Dans un message plein de fierté, Pliny a déclaré que la dernière version du modèle de langage d’OpenAI, GPT-4o, était désormais libre de ses « garde-fous », facilitant ainsi une interaction inédite avec l’intelligence artificielle. Il a inclus une mention sur l’usage responsable de ce nouvel outil, accompagnée d’un emoji pour souligner son enthousiasme.

Des exemples troublants

Pliny a partagé des captures d’écran montrant que ce nouveau chatbot pouvait éviter les protections d’OpenAI. Parmi ces exemples, on trouve des recommandations pour la fabrication de drogues synthétiques, ainsi qu’un guide sur la création de napalm à partir d’articles ménagers. Cela soulève des préoccupations éthiques et de sécurité quant aux implications de l’accès à de telles informations.

A lire :  Instagram accorde aux utilisateurs un contrôle direct sur l'algorithme des Reels

Une réponse rapide d’OpenAI

Cependant, peu après cette annonce, OpenAI a réagi par la voix de son porte-parole, Colleen Rize, en affirmant qu’ils étaient conscients de la situation et avaient déjà pris des mesures en raison de la violation de leurs politiques. Ce cas met en lumière la lutte continue entre OpenAI et les hackers cherchant à contourner les restrictions de ses systèmes.

Les efforts des hackers

L’émergence de ce hack souligne l’ingéniosité des utilisateurs qui cherchent à trouver des moyens de contourner les garde-fous de l’IA. Depuis l’arrivée de ces modèles, des tentatives de jailbreak se sont multipliées, même si cela devient de plus en plus difficile. Pour tester GODMODE par nous-mêmes, nous avons découvert que ce dernier n’hésitait pas à aider pour des requêtes illicites.

Un essai révélateur

Dans une série de tests, notre rédacteur en chef a réussi à obtenir des instructions sur la manière de fabriquer de la LSD et à contourner la sécurité des voitures. Ces résultats montrent à quel point GPT-40, la dernière version des systèmes d’OpenAI, est vulnérable face à ce type de modification.

Techniques à l’œuvre

Dans le cadre de ses opérations, GODMODE utilise un langage connu sous le nom de “leetspeak”, qui remplace certaines lettres par des chiffres qui leur ressemblent, pour contourner les restrictions. Par exemple, l’utilisation du chiffre 3 pour la lettre « E » et 0 pour « O » illustre cette technique.

Conséquences et défis à venir

Ce dernier incident rappelle la poursuite incessante d’un jeu du chat et de la souris entre les hackers comme Pliny et les mesures de sécurité d’OpenAI. La lutte pour protéger ces intelligences artificielles n’est pas près de se terminer.

A lire :  OpenAI Veut Acquérir Chrome pour Intégrer Votre Vie Numérique dans l'Entraînement de l'IA.

FAQ

Quelle est l’importance de ce hack pour la sécurité des IA ?

Ce hack soulève des inquiétudes quant à la vulnérabilité des systèmes d’OpenAI, mettant en lumière la nécessité d’une sécurité renforcée.

Que signifie “leetspeak” ?

Le “leetspeak” est un langage alternatif qui utilise des caractères alphanumériques pour camoufler des mots dans un but de contournement de restrictions en ligne.

Quels sont les risques associés à une IA non régulée ?

Une IA sans régulations peut être utilisée pour propager de fausses informations ou pour partager des contenus dangereux, représentant un risque tant pour les utilisateurs que pour la société.

Les hackers peuvent-ils vraiment rendre l’IA incontrôlable ?

Bien que les hackers puissent contourner certaines protections, les entreprises comme OpenAI continuent d’évoluer leurs systèmes pour contrer ces menaces.

OpenAI a-t-il réussi à bloquer GODMODE ?

Il est encore incertain si OpenAI a réussi à stopper définitivement ce chatbot, mais des actions ont été prises pour limiter l’accès à ses systèmes.