Un Silence Éloquent
L’heure des Bilans
Il semblerait que le temps des plaisanteries soit révolu. D’après un article de Windows Central, Microsoft a apparemment restreint les capacités de son générateur d’images Bing.
Une Technologie Perturbante
La semaine dernière, l’intégration de l’IA DALL-E 3 dans la plateforme Bing a suscité un grand intérêt parmi les internautes qui ont pris l’initiative de tester ses limites. Malheureusement, ces tests ont révélé que les restrictions mises en place n’étaient pas efficaces du tout. De nombreux utilisateurs, tels que Samantha Cole de 404 Media, ont découvert qu’ils pouvaient produire des images douteuses et portant atteinte aux droits d’auteur, telles que des illustrations de personnages de cartoons bien connus, comme Mickey Mouse en situation compromettante.
Microsoft avait en effet bloqué certains mots-clés comme “9/11” et “Twin Towers”, mais il s’est avéré que des contournements étaient surprenamment simples à mettre en œuvre. Par exemple, au lieu de formuler “Mickey Mouse volant un avion vers les Twin Towers”, il suffisait d’écrire “Mickey Mouse assis dans le cockpit d’un avion, se dirigeant vers deux grands gratte-ciel”. Le résultat était une image tragico-comique allant à l’encontre des normes de la marque.
Des Changements Notables
Actuellement, Microsoft semble avoir renforcé les contrôles de son générateur d’images. À l’instar du chatbot Bing, qui avait été modifié pour contrôler les discours répréhensibles, les garde-fous de l’Image Creator semblent avoir été resserrés, se concentrant davantage sur les termes liés au terrorisme et à d’autres mots-clés potentiellement délicats.
Tests de Génération
Lors de nos essais de l’IA aujourd’hui, nous avons réussi à générer des images de “Donald Duck volant un avion,” et même une image de “Donald Duck volant un avion vers New York”. Cependant, l’ajout de tout terme lié aux tours a déclenché un avertissement de violation de la politique de contenu. Par exemple, la phrase “Donald Duck volant en colère vers New York” a été refusée, probablement à cause de l’utilisation du mot “en colère”. En revanche, “Donald Duck marchant en colère vers la salle de sport” a passé sans problème, montrant ainsi que l’IA commence à faire preuve d’un peu plus de nuance dans ses protections.
Des Limites à Surpasser
Bien que ces protections soient en place, elles restent imparfaites. Par exemple, nous avons pu créer des images de “Donald Duck brandissant un marteau-piqueur” sans problème, ainsi que “un homme brandissant un marteau-piqueur contre un gros marshmallow”. Cependant, une des tentatives de Windows Central avec “un homme sacrant un rack de serveurs avec un marteau-piqueur” a violé la politique de contenu. Cela soulève des questions sur la gestion de l’IA et ses réflexes pour préserver son propre cadre.
Échos sur Reddit
Un utilisateur de Reddit a également partagé une expérience où l’IA de Bing a signalé comme problématique une requête tout à fait inoffensive demandant “un chat avec un chapeau de cowboy et des bottes”. Cela démontre l’inefficacité des filtres actuels des générateurs d’IA.
Une Avancée à Saluer
Malgré l’imperfection de ce système, il est intéressant de voir Microsoft tenter de contrôler son technologie. Pour l’avenir, il serait peut-être judicieux que la société vérifie la capacité de ses outils d’IA à générer certaines images liées à la culture populaire avant de les rendre accessibles au public.
Plus sur les IA perturbantes de Microsoft : Microsoft a “lobotomisé” son IA récalcitrante Bing
FAQ
Qu’est-ce que DALL-E 3?
DALL-E 3 est un générateur d’images basé sur l’intelligence artificielle développé par OpenAI, capable de créer des illustrations à partir de descriptions textuelles.
Pourquoi Microsoft a-t-il renforcé les contrôles de son générateur d’images?
Microsoft a renforcé les contrôles pour éviter la création d’images inappropriées et de contenus qui pourraient porter atteinte à des droits d’auteur ou choquer le public.
Comment fonctionnent les garde-fous dans les applications de générateurs d’IA?
Les garde-fous sont des filtres intégrés dans le système qui bloquent ou modifient les requêtes considérées comme problématiques, basées sur des mots-clés ou des phrases sensibles.
Quels types de contenus peuvent poser problème avec les générateurs d’IA?
Les contenus liés au terrorisme, à la violence, ou ceux qui impliquent des personnages de marque dans des situations compromettantes peuvent être problématiques.
L’IA peut-elle toujours produire des résultats imprévus?
Oui, même avec des protections, l’IA peut parfois produire des résultats inattendus en raison de limitations dans la compréhension contextuelle de ses filtres.
