Intelligence Artificielle

Une Startup d’IA Supprime Son Site Web Après la Découverte d’une Controverse Choquante

Une Startup d'IA Supprime Son Site Web Après la Découverte d'une Controverse Choquante
</div>

<p>
    <figcaption class="article-featured-image-caption">
         <em>Image : Monica Schipper via Getty / Futurism</em>        </figcaption>
</p>

La Découverte Alarmante de GenNomis

Cette semaine, un site sud-coréen nommé GenNomis a cessé ses activités après qu’un chercheur en cybersécurité a fait une découverte particulièrement préoccupante. Il a trouvé des dizaines de milliers d’images pornographiques générées par l’IA au sein d’une base de données non sécurisée. Ces images comportaient des représentations explicites de célébrités, de politiciens, ainsi que d’anonymes, y compris des enfants.

Réaction à la Découverte

Jeremiah Fowler, le chercheur qui a mis la main sur ces contenus, a immédiatement notifié GenNomis et sa société mère, AI-Nomis, à travers une procédure de divulgation responsable. Suite à cela, la base de données a été restreinte et, quelques heures après que le magazine Wired a contacté GenNomis pour obtenir un commentaire, il semble que le site et l’entreprise aient disparu d’Internet.

Un Problème Plus Étendu

GenNomis n’est pas une exception dans le monde des startups d’IA qui proposent des outils pour créer du contenu pornographique. Ce phénomène fait partie d’une tendance inquiétante liée à l’IA générative, non régulée, qui permet la création de « deepfakes ». Ces images et vidéos, qui imitent de manière réaliste des personnes réelles, ont envahi le web, en particulier alors que les technologies deviennent de plus en plus sophistiquées.

A lire :  Mister X Désemparé : L'AI de Meta Révèle Son Numéro aux Inconnus.

Les Conséquences Dévastatrices

Les répercussions liées aux deepfakes pornographiques peuvent être catastrophiques, en particulier pour les femmes, qui représentent une écrasante majorité des victimes. Au-delà de l’absence de consentement lorsqu’une personne est représentée de manière inappropriée, ces contenus ont été utilisés pour discréditer des politiciens, entraîner des licenciements, extorquer des victimes, et même produire des contenus d’abus sexuels sur des mineurs. En dehors du domaine pornographique, l’utilisation abusive des deepfakes a également provoqué une augmentation significative des crimes financiers et de la désinformation en ligne.

Un Constat Alarmant en Corée du Sud

Il est particulièrement révélateur que GenNomis soit basé en Corée du Sud, où un rapport de 2023 révèle que 53 % des victimes de ce phénomène sont des femmes sud-coréennes. En comparaison, les femmes aux États-Unis représentent 20 % des victimes, marquant une prévalence inquiétante de ce phénomène dans certains pays.

La Lutte Contre les Deepfakes

La montée de l’IA générative qui permet d’exploiter les femmes coïncide avec une augmentation alarmante du discours sexiste et de la violence basée sur le genre en Corée du Sud. Cela a conduit certains politiciens à blâmer le féminisme pour la hausse des suicides chez les hommes.

Il devient impératif que les législateurs adoptent une approche plus stricte en matière de régulation de l’IA générative. Bien que des mesures soient prises par certains pays, comme la Chine, qui exige que tous les médias générés par l’IA soient étiquetés, la situation reste préoccupante en Occident. Aux États-Unis, la criminalisation de la création et de la distribution de contenu pornographique par deepfake progresse, mais les lois et sanctions varient considérablement d’un État à l’autre.

A lire :  Coinbase Lance le Premier Token « Trade-to-Feed » : $EAT (WYDE : Mettons Fin à la Faim) sur Base

Conclusion

Pour de nombreuses femmes à travers le monde, l’existence de sociétés comme GenNomis souligne un besoin urgent de protection contre l’exploitation numérique. Tant que de telles entreprises resteront impunies, les victimes continueront à souffrir des conséquences de ces abus.

FAQ

Qu’est-ce qu’un deepfake?

Un deepfake est une technique de synthèse d’images permettant de créer des vidéos dans lesquelles l’auteur d’une vidéo ou d’une image peut être remplacé par le visage d’une autre personne, ce qui peut mener à des abus.

Quelles sont les lois actuelles concernant les deepfakes?

Les lois sur les deepfakes varient selon les pays et même les États aux États-Unis, mais elles commencent à évoluer face à la montée de cette technologie.

Quels sont les risques associés aux deepfakes?

Les deepfakes peuvent entraîner des problèmes de désinformation, d’extorsion, et nuire à la réputation des personnes ciblées, en particulier des femmes.

Comment se défendre contre l’utilisation abusive de ses images?

Les victimes potentielles peuvent demander des conseils juridiques et signaler tout contenu illégal ou abusif aux autorités compétentes.

Que fait la société pour réglementer l’IA?

Actuellement, il y a une pression croissante sur les gouvernements pour établir des régulations claires, mais la mise en œuvre reste inégale à l’échelle mondiale.