Intelligence Artificielle

Instagram Tire Profit d’Applications Inacceptables Dévêtissant des Personnes Sans Consentement

Instagram Tire Profit d'Applications Inacceptables Dévêtissant des Personnes Sans Consentement

Utilisation abusive d’IA dans la publicité

Des générateurs d’images basés sur l’IA, prétendant pouvoir « déshabiller » célébrités et jeunes femmes, ne sont pas un phénomène récent. Cependant, ces technologies font leur apparition dans des publicités monétisées sur Instagram.

Selon un rapport de 404 Media, la société mère de Facebook et Instagram, plusieurs annonces payantes proposant des applications dites de « nudification » ont été découvertes dans leur bibliothèque de publicités. Ces applications se servent de l’IA pour créer des images truquées où des personnes sont montrées nues à partir de photos où elles sont habillées.

Dans une des annonces, une image de Kim Kardashian accompagnée de phrases telles que « déshabille n’importe quelle fille gratuitement » a été affichée. Une autre publicité présentait deux photos générées par l’IA d’une jeune fille, l’une avec un haut à manches longues et l’autre censée la montrer topless, masquée par une inscription « supprime tout vêtement » sur sa poitrine.

L’impact sur la vie des jeunes filles

Au cours des six derniers mois, ces applications ont acquis une sinistre réputation après avoir été utilisées pour produire de fausses images nues de adolescentes dans des établissements scolaires aux États-Unis et en Europe. Cela a conduit à des enquêtes et à des propositions de lois visant à protéger les enfants de ces usages néfastes de l’IA. À la fin de l’année dernière, Vice a rapporté que des élèves à Washington avaient découvert l’application « déshabiller » grâce à des publicités sur TikTok.

A lire :  Attention, tout le monde : les générateurs d'images IA maîtrisent désormais les mains !

Réaction de Meta

Dans son enquête, 404 Media a constaté que de nombreuses publicités étaient enlevées de la bibliothèque publicitaire de Meta au moment où les journalistes les examinaient. Certaines ont uniquement été supprimées après que l’entreprise ait été alertée de leur existence.

Un porte-parole de Meta a déclaré : « Nous ne permettons pas d’annonces contenant des contenus pour adultes. Lorsque nous identifions des publicités contrevenantes, nous agissons rapidement pour les retirer. » Cependant, certaines publicités étaient toujours visibles lorsque 404 Media a publié son article, ce qui indique une approche un peu opportuniste de la part de Meta dans la lutte contre ces contents inappropriés.

L’été dernier, un article de Futurism a révélé que Google était prompt à diriger les utilisateurs vers des contenus de pornographie deepfake, impliquant non seulement des célébrités mais aussi des élus et des figures publiques n’ayant pas consenti à l’utilisation de leurs images. En effectuant une recherche basique, Google affichait encore le site MrDeepFakes, le plus grand fournisseur de ce type de contenu, en tête des résultats pour la recherche « pornographie deepfake ».

Mention d’une application

Au cours de l’enquête, 404 a également relevé qu’une des applications en question demandait aux utilisateurs de payer des frais d’abonnement de 30 $ pour accéder à ses fonctionnalités NSFW, mais était finalement incapable de générer des images nues. Il est préoccupant de constater que de telles applications soient annoncées sur Instagram, surtout lorsqu’un sondage de Pew a révélé que 50 % des adolescents utilisent encore l’application détenue par Meta quotidiennement.

FAQ

Qu’est-ce qu’une application de nudification ?

Une application de nudification utilise des algorithmes d’IA pour transformer des images habillées en représentations de personnes nues sans leur consentement.

A lire :  Mark Zuckerberg Présente une Vidéo Étrange de Lui en Train de Soulever des Nuggets de Poulet

Quels sont les risques associés à ce type de technologie ?

L’utilisation de ces applications peut causer des dommages psychologiques aux victimes et exacerber des problèmes de cyberharcèlement.

Quelles lois protègent les enfants contre de tels abus ?

De nombreux pays envisagent ou ont déjà mis en place des législations pour interdire la création et la diffusion de contenus pornographiques non consensuels, en particulier ceux visant des mineurs.

Comment les entreprises de technologie réagissent-elles à ces préoccupations ?

Des entreprises comme Meta et Google affirment travailler pour retirer rapidement les contenus inappropriés et développer des politiques plus strictes pour protéger les utilisateurs.

Que peuvent faire les victimes de telles pratiques ?

Les victimes de contenus abusifs peuvent signaler ces images aux plateformes concernées et envisager des actions légales pour protéger leurs droits.