Inscrivez-vous pour découvrir les innovations de demain, dès aujourd’hui.
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Des innovations incontournables issues des tout derniers développements en science et technologie.</p>
</div>
</div>
</div>
</section>
<p class="pw-incontent-excluded article-paragraph skip">
La **Def Con**, la plus grande conférence de hackers au monde, est depuis longtemps un terrain d’expérimentation pour les experts en cybersécurité. On y voit des compétences mises à l’épreuve, allant de l'<a href="https://www.cnet.com/roadshow/news/tesla-hackers-explain-how-they-did-it-at-def-con-23/" rel="noreferrer" target="_blank">intrusion dans des véhicules</a> à la découverte de <a href="https://www.businessinsider.com/iot-village-defcon-2016-8" rel="noreferrer" target="_blank">vulnérabilités des maisons intelligentes</a>, voire même le piratage d'élections.
</p>
<p class="article-paragraph skip">
Cette année, à Las Vegas, il n'est donc pas surprenant que les hackers aient choisi de s'attaquer aux **chatbots**. Ce phénomène a pris de l’ampleur, surtout depuis la mise à disposition de **ChatGPT** par **OpenAI** à la fin de l'année dernière.
</p>
<p class="article-paragraph skip">
La convention a même organisé un concours, comme le rapporte <a href="https://www.nbcnews.com/tech/security/def-con-ai-village-hacking-chatbots-rcna99678" rel="noreferrer" target="_blank"><em>NBC News</em></a>. L'objectif n'était pas de détecter des failles logicielles, mais d'élaborer de nouvelles <a href="https://www.cobalt.io/blog/prompt-injection-attacks" rel="noreferrer" target="_blank">injections de requêtes</a> pouvant amener des chatbots comme **Bard** de Google ou **ChatGPT** à générer presque n'importe quel type de réponse souhaitée par les attaquants.
</p>
<p class="article-paragraph skip">
Selon le rapport, six des plus grandes entreprises d'IA, à savoir **Meta**, **Google**, **OpenAI**, **Anthropic**, et **Microsoft**, ont participé à ce défi, espérant que les hackers dénichent les faiblesses de leurs outils d'IA générative.
</p>
<p class="article-paragraph skip">
La Maison Blanche a même <a href="https://www.wired.com/story/joe-biden-hackers-chatgpt-ai-chatbots/#:~:text=The%20White%20House%20will%20support,flaws%20in%20generative%20AI%20systems.&text=ChatGPT%20has%20stoked%20new%20hopes,intelligence%E2%80%94but%20also%20new%20fears." rel="noreferrer" target="_blank">annoncé</a> en mai qu'elle soutenait cet événement, ce qui n'est pas vraiment une surprise.
</p>
<p class="article-paragraph skip">
En effet, bien que ces chatbots soient impressionnants d'un point de vue technique, ils ont la réputation d'être très mauvais pour distinguer le vrai du faux. Comme nous l’avons constaté à plusieurs reprises, ils sont facilement manipulables.
</p>
<p class="article-paragraph skip">
Avec des milliards de dollars investis dans l’industrie de l’IA, les **incitations financières** à découvrir ces vulnérabilités sont très réelles.
</p>
<p class="article-paragraph skip">
« Toutes ces entreprises tentent de commercialiser leurs produits », a déclaré **Rumman Chowdhury**, consultant en confiance et sécurité qui a contribué à la conception du concours, à <em>NBC</em>. « Et à moins que ce modèle ne puisse interagir de manière fiable dans des situations innocentes, il ne sera pas commercialisable. »
</p>
<p class="article-paragraph skip">
Les entreprises participantes se sont donné une large marge de manœuvre. Par exemple, les failles découvertes ne seront pas rendues publiques avant février, ce qui leur laisse suffisamment de temps pour les corriger. De plus, les hackers présents ne pouvaient accéder aux systèmes qu'à travers des ordinateurs fournis.
</p>
<p class="article-paragraph skip">
Cependant, il reste à voir si ces efforts aboutiront à des solutions durables. Les protections mises en place par ces entreprises se sont déjà révélées incroyablement faciles à contourner grâce à des injections de requêtes simples, selon ce qu’ont récemment constaté des chercheurs de **Carnegie Mellon**, ce qui signifie qu’elles peuvent être détournées pour créer de la désinformation ou de la discrimination.
</p>
<p class="article-paragraph skip">
Pire encore, ces chercheurs indiquent qu'il n'existe pas de solution facile pour remédier à ce problème fondamental, peu importe combien de failles spécifiques une armée de hackers à Def Con peut identifier.
</p>
<p class="article-paragraph skip">
« Il n'y a pas de solution évidente », a déclaré **Zico Kolter**, professeur à **Carnegie Mellon** et co-auteur du rapport, au <em>New York Times</em> le mois dernier. « Vous pouvez créer autant d'attaques que vous le souhaitez en un temps très court. »
</p>
<p class="article-paragraph skip">
« Il n'y a pas de bonnes protections en place », a affirmé **Tom Bonner**, d'une entreprise de sécurité IA, lors de sa présentation à DefCon, selon <a href="https://www.ctvnews.ca/business/don-t-expect-quick-fixes-in-red-teaming-of-ai-models-security-was-an-afterthought-1.6517331" rel="noreferrer" target="_blank"><em>Associated Press</em></a>.
</p>
<p class="article-paragraph skip">
De plus, des chercheurs de l’**ETH Zurich** en Suisse ont récemment découvert qu'il était possible d'« empoisonner » les données d’entraînement de l'IA simplement en utilisant un ensemble d'images et de textes, ce qui pourrait avoir des conséquences dévastatrices.
</p>
<p class="article-paragraph skip">
En résumé, les entreprises d'IA auront du pain sur la planche, qu'elles aient ou non une armée de hackers testant leurs produits.
</p>
<p class="article-paragraph skip">
« La désinformation va rester un problème persistant pendant un certain temps », a déclaré Chowdhury à <em>NBC</em>.
</p>
<p class="article-paragraph skip"><strong>À propos des chatbots :</strong> <em>Une IA de planification de repas d'un supermarché suggère un poison mortel pour le dîner.</em></p>
Sommaire
ToggleFAQ
Qu’est-ce que la Def Con ?
La Def Con est une conférence annuelle de cybersécurité qui attire des hackers, des chercheurs et des professionnels du monde entier pour discuter, partager et tester des techniques de piratage et de sécurité.
Pourquoi les chatbots sont-ils ciblés par les hackers ?
Les chatbots, bien qu’avancés, présentent des vulnérabilités qui permettent aux hackers de manipuler les réponses générées, rendant essentiels les tests pour sécuriser ces outils.
Quel est le rôle de la Maison Blanche dans cet événement ?
La Maison Blanche a annoncé son soutien à la conférence, soulignant l’importance de la cybersécurité dans le contexte actuel de l’IA, notamment en matière de protection contre la désinformation.
Quelles solutions sont proposées pour résoudre ces problèmes ?
Actuellement, aucune solution évidente n’a été identifiée. Les chercheurs travaillent néanmoins à développer des mesures de sécurité efficaces, bien que certaines vulnérabilités puissent se révéler difficiles à corriger.
Comment éviter la désinformation générée par l’IA ?
Pour réduire la désinformation, il est crucial de renforcer les systèmes de vérification des faits et d’implémenter des contrôles robustes dans les modèles d’IA afin d’améliorer leur fiabilité.
