Une Tempête pour Microsoft
Un Scandale Éclatant
La situation devient tendue pour Microsoft. Récemment, un de leurs programmes d’intelligence artificielle (IA) a été mis en cause pour avoir généré des images pornographiques truquées de Taylor Swift qui ont inondé les réseaux sociaux. Ces contenus étaient si choquants que même la Maison Blanche a réagi en émettant un communiqué de préoccupation.
Une Révélation inquiétante
Shane Jones, un ingénieur logiciel chez Microsoft, a affirmé avoir découvert des vulnérabilités dans DALL-E, un programme d’OpenAI, qui pourraient être exploitées pour créer de telles images abusives. Selon des sources, Jones a été incité au silence sur ce sujet après avoir alerté Microsoft de ces failles.
En décembre, il signale ce problème à l’entreprise, qui lui demande de contacter OpenAI, en raison de leur partenariat étroit. Cependant, une fois l’information transmise, Jones ne reçoit aucune réponse. Insatisfait, il a partagé sa découverte sur LinkedIn, en appelant OpenAI à mettre un terme à DALL-E, car il jugeait que cette technologie représentait un risque pour la sécurité publique. Lorsque Microsoft a eu vent de son post, son équipe juridique lui a demandé de le supprimer.
Un Cri d’alarme
Face à l’inaction d’OpenAI et de Microsoft, Jones a décidé d’envoyer une lettre à des représentants du Congrès de l’État de Washington ainsi qu’au Procureur Général, Bob Ferguson. Il mettait en avant le danger que représentaient les images de Swift, générées par un outil conçu en partie avec la technologie de DALL-E.
Dans cette lettre, il explique que les failles de DALL-E 3 et des produits comme Microsoft Designer pourraient être utilisées de manière abusive. Il a souligné que Microsoft était conscient de ces vulnérabilités et de leur potentiel d’exploitation.
Bien qu’OpenAI ait réagi en affirmant que le problème signalé par Jones « ne contournait pas nos systèmes de sécurité », Microsoft a assuré qu’ils avaient colmaté toutes les failles ayant conduit à ces deepfakes inacceptables de Swift.
La Réalité des Outils d’IA
Depuis que ces outils d’IA sont largement accessibles, des hackers ont régulièrement contourné les mesures de sécurité, mettant en lumière les faiblesses persistantes de cette technologie, y compris sur les produits d’OpenAI. Cela souligne à quel point ces systèmes restent vulnérables aux abus.
Point important : des mesures doivent être prises pour garantir la sécurité et l’intégrité des outils d’IA pour éviter d’autres abus similaires.
FAQ
Quels sont les risques associés à l’utilisation de DALL-E ?
DALL-E présente des risques en générant des images à caractère pornographique ou diffamatoire, pouvant être utilisées à des fins malveillantes.
Comment OpenAI et Microsoft répondent-ils à ces problèmes de sécurité ?
OpenAI prétend que leurs systèmes de sécurité sont rigoureux, tandis que Microsoft a affirmé avoir corrigé les failles signalées.
Y a-t-il d’autres incidents similaires liés à l’IA ?
Oui, d’autres incidents, notamment l’utilisation malveillante de différentes technologies d’IA, sont régulièrement signalés dans les médias.
Les utilisateurs peuvent-ils signaler des problèmes avec les outils d’IA ?
Oui, les utilisateurs sont encouragés à signaler toute interaction inappropriée ou tout problème de sécurité qu’ils rencontrent.
Quelles sont les régulations encadrant l’utilisation de l’IA actuellement ?
Les régulations varient d’un pays à l’autre, mais la plupart des gouvernements cherchent à mettre en place des lois pour encadrer l’utilisation et la sécurité des technologies d’IA.
