Intelligence Artificielle

Images AI de Jeunes en Bikinis Évoquant l’île d’Epstein

Images AI de Jeunes en Bikinis Évoquant l'île d'Epstein

Des Images Inappropriées en Ligne

Un article de 404 Media met en lumière un problème majeur sur Google Images. En effet, la plateforme est saturée d’images générées par intelligence artificielle, parfois même explicites, représentant des célébrités sans leur accord. Dans certaines situations, des résultats de recherche affichaient des images à connotation sexuelle de femmes célèbres, alors que les recherches n’avaient rien à voir avec ces thématiques. De plus, Google a renvoyé des images de jeunes habillées en bikini, suscitant de vives inquiétudes quant à la sécurité en ligne.

Il est crucial de noter que ces contenus apparaissent même lorsque les requêtes ne font pas mention d’intelligence artificielle. Ce constat souligne l’incapacité de Google à contrôler efficacement la diffusion de contenus abusifs ou potentiellement illégaux.

Un Univers En Sombre Évolution

404 Media a testé plusieurs recherches en y intégrant le nom de célébrités féminines très connues, ainsi que d’autres moins médiatisées comme des YouTubers ou des streamers. Les recherches associées à des termes tels que “bikini” ou “maillot de bain” ont toutes affiché des résultats comprenant des images générées par IA. Alarmant, deux de ces recherches ont exhibé des images de célébrités en tant qu’enfants dans des maillots de bain, alors que les utilisateurs n’avaient pas du tout exprimé un désir de voir ce type de contenu.

A lire :  Une Technologie Révolutionnaire Transforme Votre Écran en 3D en Suivant vos Yeux Grâce à la Webcam

Pire encore, en cliquant sur ces images d’enfants célèbres, un panorama encore plus troublant a émergé. Une image a mené à une page d’un site d’IA nommé Playground.ai, qui était remplie de photos similaires, certaines d’entre elles étant accompagnées de légendes évoquant des lieux et des individus notoires, comme Jeffrey Epstein.

Des Imgrés au Limite de la Légalité

En explorant davantage des images créées par IA de célébrités pour les faire paraître comme des enfants, 404 a atterri sur une page remplie d’images de « célébrités enfantines en maillots de bain » et de quelques images AI de célébrités topless qui ressemblent à des enfants. Bien que la création de contenus sexuels suggérés impliquant des enfants demeure juridiquement floue, ces derniers méritent une attention particulière compte tenu des nouvelles normes mises à jour par le FBI en matière de matériel d’abus sexuel d’enfants.

Les Défis de la Curation de Contenu

Une défense classique de Google et des moteurs de recherche en général est que l’internet abonde d’éléments répréhensibles. Ainsi, en scrutant bien, les utilisateurs peuvent facilement tomber sur le contenu mal intentionné qu’ils cherchent.

Cependant, les résultats de 404 démontrent qu’avec l’avènement de l’IA, dénicher des contenus problématiques est devenu un jeu d’enfant, à quelques clics près. Parallèlement, des experts continuent de tirer la sonnette d’alarme sur la montée en puissance de contenus alimentés par l’IA, tels que des deepfakes non consensuels et des CSAM synthétiques, et il reste incertain si Google peut gérer cette marée montante.

Un représentant de Google a déclaré que certaines situations peuvent faire apparaître des contenus peu fiables. L’entreprise utilise ces cas pour améliorer ses algorithmes et affirmer son engagement à réduire la circulation d’contenus de mauvaise qualité.

A lire :  OpenAI: un chercheur sommé de retirer un tweet « embarrassant » annonçant une percée majeure

FAQ

Qu’est-ce que le CSAM ?

Le CSAM (Child Sexual Abuse Material) fait référence à des contenus représentant des abus sexuels sur des enfants, et la lutte contre sa diffusion est cruciale pour la protection des mineurs.

Comment fonctionne l’IA pour générer des images ?

L’IA analyse et s’inspire des images existantes sur internet pour créer de nouveaux contenus. Ce processus soulève des questions éthiques, surtout lorsque ces images représentent des personnes célèbres ou des enfants.

Que fait Google pour protéger ses utilisateurs ?

Bien que Google déploie des efforts pour filtrer le contenu inapproprié, l’évolution rapide de la technologie d’IA complique la surveillance de son vaste réseau de recherche.

Existe-t-il des lois régissant la création de contenus par IA ?

Les lois varient selon les pays, mais de nombreux gouvernements commencent à réfléchir à des régulations pour traiter des abus potentiels liés à l’IA et à la création de contenus.

Les réseaux sociaux sont-ils aussi affectés par ce phénomène ?

Oui, les réseaux sociaux présentent également des risques en matière de diffusion de contenus inappropriés générés par l’IA, et leur modération est souvent mise à l’épreuve face à cette complexité.