Intelligence Artificielle

Microsoft Rapiécé l’IA Générative d’Images de Bing.

Microsoft Rapiécé l'IA Générative d'Images de Bing.

Un Silence Éloquent

Illustration du silence Image : Peter Dazeley via Getty Images

L’heure des Bilans

Il semblerait que le temps des plaisanteries soit révolu. D’après un article de Windows Central, Microsoft a apparemment restreint les capacités de son générateur d’images Bing.

Une Technologie Perturbante

La semaine dernière, l’intégration de l’IA DALL-E 3 dans la plateforme Bing a suscité un grand intérêt parmi les internautes qui ont pris l’initiative de tester ses limites. Malheureusement, ces tests ont révélé que les restrictions mises en place n’étaient pas efficaces du tout. De nombreux utilisateurs, tels que Samantha Cole de 404 Media, ont découvert qu’ils pouvaient produire des images douteuses et portant atteinte aux droits d’auteur, telles que des illustrations de personnages de cartoons bien connus, comme Mickey Mouse en situation compromettante.

Microsoft avait en effet bloqué certains mots-clés comme “9/11” et “Twin Towers”, mais il s’est avéré que des contournements étaient surprenamment simples à mettre en œuvre. Par exemple, au lieu de formuler “Mickey Mouse volant un avion vers les Twin Towers”, il suffisait d’écrire “Mickey Mouse assis dans le cockpit d’un avion, se dirigeant vers deux grands gratte-ciel”. Le résultat était une image tragico-comique allant à l’encontre des normes de la marque.

A lire :  Elon Musk Investit Une Somme Colossale pour Dépasser OpenAI

je me demande comment Disney réagit face à Microsoft qui développe une appli Bing générant des images d’un Mickey Mouse détournant un avion le 11 septembre pic.twitter.com/Y61Ag19J3D

— Sage 🏳️‍⚧️ trans.bsky.social (@Transgenderista) 5 octobre 2023

Des Changements Notables

Actuellement, Microsoft semble avoir renforcé les contrôles de son générateur d’images. À l’instar du chatbot Bing, qui avait été modifié pour contrôler les discours répréhensibles, les garde-fous de l’Image Creator semblent avoir été resserrés, se concentrant davantage sur les termes liés au terrorisme et à d’autres mots-clés potentiellement délicats.

Tests de Génération

Lors de nos essais de l’IA aujourd’hui, nous avons réussi à générer des images de “Donald Duck volant un avion,” et même une image de “Donald Duck volant un avion vers New York”. Cependant, l’ajout de tout terme lié aux tours a déclenché un avertissement de violation de la politique de contenu. Par exemple, la phrase “Donald Duck volant en colère vers New York” a été refusée, probablement à cause de l’utilisation du mot “en colère”. En revanche, “Donald Duck marchant en colère vers la salle de sport” a passé sans problème, montrant ainsi que l’IA commence à faire preuve d’un peu plus de nuance dans ses protections.

Des Limites à Surpasser

Bien que ces protections soient en place, elles restent imparfaites. Par exemple, nous avons pu créer des images de “Donald Duck brandissant un marteau-piqueur” sans problème, ainsi que “un homme brandissant un marteau-piqueur contre un gros marshmallow”. Cependant, une des tentatives de Windows Central avec “un homme sacrant un rack de serveurs avec un marteau-piqueur” a violé la politique de contenu. Cela soulève des questions sur la gestion de l’IA et ses réflexes pour préserver son propre cadre.

A lire :  Meta Se Règle sur l'IA pour le Support des Comptes sur Facebook et Instagram

Échos sur Reddit

Un utilisateur de Reddit a également partagé une expérience où l’IA de Bing a signalé comme problématique une requête tout à fait inoffensive demandant “un chat avec un chapeau de cowboy et des bottes”. Cela démontre l’inefficacité des filtres actuels des générateurs d’IA.

Une Avancée à Saluer

Malgré l’imperfection de ce système, il est intéressant de voir Microsoft tenter de contrôler son technologie. Pour l’avenir, il serait peut-être judicieux que la société vérifie la capacité de ses outils d’IA à générer certaines images liées à la culture populaire avant de les rendre accessibles au public.

Plus sur les IA perturbantes de Microsoft : Microsoft a “lobotomisé” son IA récalcitrante Bing

FAQ

Qu’est-ce que DALL-E 3?

DALL-E 3 est un générateur d’images basé sur l’intelligence artificielle développé par OpenAI, capable de créer des illustrations à partir de descriptions textuelles.

Pourquoi Microsoft a-t-il renforcé les contrôles de son générateur d’images?

Microsoft a renforcé les contrôles pour éviter la création d’images inappropriées et de contenus qui pourraient porter atteinte à des droits d’auteur ou choquer le public.

Comment fonctionnent les garde-fous dans les applications de générateurs d’IA?

Les garde-fous sont des filtres intégrés dans le système qui bloquent ou modifient les requêtes considérées comme problématiques, basées sur des mots-clés ou des phrases sensibles.

Quels types de contenus peuvent poser problème avec les générateurs d’IA?

Les contenus liés au terrorisme, à la violence, ou ceux qui impliquent des personnages de marque dans des situations compromettantes peuvent être problématiques.

L’IA peut-elle toujours produire des résultats imprévus?

Oui, même avec des protections, l’IA peut parfois produire des résultats inattendus en raison de limitations dans la compréhension contextuelle de ses filtres.

A lire :  Trump Annonce des Centrales Énergétiques Spécialisées pour Alimentation des Datacenters d'IA