Intelligence Artificielle

Attaque Préparée avec un Cybertruck : Un Individu Utilise ChatGPT pour Élaborer son Plan

Attaque Préparée avec un Cybertruck : Un Individu Utilise ChatGPT pour Élaborer son Plan
</div>

<p>
    <figcaption class="article-featured-image-caption">
         <em>Image : Ethan Miller/Getty Images</em>        </figcaption>
</p>

TerrorGPT

Dans un incident tragique survenu à Las Vegas, les autorités ont révélé que Matthew Livelsberger, un soldat des Green Berets, a mis fin à ses jours après avoir incendié une Tesla Cybertruck louée près de l’hôtel Trump Towers. Ce qui est particulièrement troublant, c’est qu’il a utilisé l’IA générative, dont ChatGPT d’OpenAI, pour préparer son acte.

Utilisation troublante de l’IA

D’après un rapport de l’Associated Press, une analyse des requêtes de Livelsberger sur ChatGPT suggère qu’il ne se contentait pas de rechercher des cibles explosibles. Il s’est également intéressé à la vitesse des balles, à leur portée, et à la légalité des feux d’artifice en Arizona, un état où ils ne sont autorisés que 27 jours par an.

Cette évolution constante met en lumière comment les nouvelles technologies peuvent être détournées pour servir des intentions malveillantes. Kevin McMahill, shérif du département de police métropolitain de Las Vegas, a déclaré lors d’une conférence de presse que c’était le premier incident connu sur le sol américain où ChatGPT a été utilisé pour concevoir un dispositif dangereux. Cette situation est alarmante.

La prise de conscience d’OpenAI

En réponse à cet événement, OpenAI a exprimé ses regrets et a affirmé soutenir l’enquête. Un porte-parole a déclaré : « Nous sommes attristés par cet incident et résolus à veiller à ce que les outils d’IA soient utilisés de manière responsable. Nos modèles sont conçus pour refuser les instructions dangereuses et réduire le contenu nuisible. » Il a également précisé que dans ce cas, ChatGPT avait partagé des informations déjà disponibles sur internet et avait émis des avertissements contre les activités illégales.

Une tragédie avec des conséquences

Ce vétéran de l’Afghanistan a tragiquement mis un terme à ses jours avec une arme à feu avant d’utiliser des explosifs improvisés et des feux d’artifice pour détruire son véhicule. Bien qu’il n’ait pas causé de pertes humaines parmi les passants, il a blessé sept personnes.

Concernant ses motivations, il semble qu’il souffrait de PTSD et d’autres problèmes, comme l’a rapporté l’agent spécial du FBI, Spencer Evans. De plus, Livelsberger a émis des commentaires étranges sur des drones “chinois” dotés de “systèmes de propulsion gravitationnels” dans un courriel largement distribué.

Dans une note, il a mentionné que les États-Unis étaient “en phase terminale et s’acheminaient vers l’effondrement”, et a qualifié son attaque de “signal d’alarme”. Il a également exprimé son intention de “purifier” son esprit des “frères perdus” et de se défaire du fardeau des vies qu’il avait prises.

Surprenant, Livelsberger a précisé dans sa note qu’il n’avait pas d’animosité envers Elon Musk, le PDG de Tesla, et a appelé à un soutien autour de Musk et de Donald Trump, le président élu.

Réflexions finales

Livelsberger, manifestement un individu en détresse, a utilisé ChatGPT d’une manière qui soulève des questions sur la sécurité des outils d’intelligence artificielle. Bien qu’il soit incertain s’il a pu obtenir des informations sur des activités illégales, il est évident qu’il est nécessaire de mettre en place des mécanismes de contrôle plus robustes. Ce triste événement sera certainement à suivre de près.

Dernière mise à jour : Ajout d’un commentaire d’OpenAI.

FAQ

Qu’est-ce que ChatGPT ?

ChatGPT est un modèle de langage développé par OpenAI qui utilise l’intelligence artificielle pour générer du texte en réponse à des questions ou des prompts.

Quelles mesures OpenAI prend-elle pour éviter les abus de ses outils ?

OpenAI travaille activement à limiter les instructions nuisibles et à émettre des avertissements contre les comportements illégaux lors de l’utilisation de ses modèles.

Quel est le contexte de l’incident de Las Vegas ?

Un soldat des Green Berets, en proie à des problèmes mentaux, a utilisé des outils d’IA pour planifier une attaque qui s’est soldée par sa mort et plusieurs blessés.

Quelle est la position d’OpenAI concernant le comportement de Livelsberger ?

OpenAI a exprimé sa tristesse face au drame et a réaffirmé son engagement envers l’utilisation responsable de ses technologies.

Existe-t-il des précédents d’utilisation malveillante de l’IA ?

Bien que des cas isolés aient été signalés, cet incident marque une première sur le sol américain où une IA générative a été utilisée pour un acte violent.