Intelligence Artificielle

Les Projets de Meta sur le Marquage du Contenu Généré par IA : Une Initiative Décevante

Les Projets de Meta sur le Marquage du Contenu Généré par IA : Une Initiative Décevante

Meta annonce travailler sur l’**auto-étiquetage** des images générées par l’AI. Toutefois, la mise en œuvre de cette fonctionnalité dépend encore de leur avancée dans la définition des critères nécessaires.

Le président des affaires mondiales chez Meta, Nick Clegg, a indiqué dans une mise à jour que l’entreprise collabore avec des partenaires industriels afin d’établir des critères permettant de reconnaître le contenu généré par l’IA. Une fois ces critères fixés, Meta commencera à étiqueter automatiquement les publications contenant des images, vidéos ou audios produits par IA, et ce, dans les mois à venir.

Clegg mentionne que cette méthode représente l’**état actuel** des technologies, tout en précisant qu’il est impossible à ce jour d’identifier tous les contenus générés par l’IA. De plus, certaines personnes trouvent des moyens de retirer les **marqueurs invisibles**. En conséquence, Meta explore diverses options pour développer des **classificateurs** capables de détecter automatiquement du contenu généré par l’IA, même sans ces marqueurs.

Tout ceci peut prêter à confusion, et la situation est plus complexe qu’elle n’y paraît.

Clarté, s’il vous plaît

Bien que cela ne soit pas explicitement mentionné, cette annonce survient un jour après qu’un rapport du Conseil de surveillance de Meta a critiqué la politique de manipulation des médias de l’entreprise, qualifiée de « **incohérente** ». Ce rapport a mis en lumière des failles dans les stratégies de Meta, permettant à un vidéo modifié du président Joe Biden — où il semblait toucher sa petite-fille de façon inappropriée — de circuler sans entrave sur leurs plateformes.

Au moment de la publication du rapport, cette vidéo ne violait pas la politique de Meta, qui n’interdit que les « vidéos créées par intelligence artificielle… et uniquement celles montrant des individus prononçant des paroles qu’ils n’ont pas réellement dites. »

Il reste flou si cette politique a été modifiée pour corriger cette faille.

Un représentant de Meta a affirmé qu’ils analysent les recommandations du Conseil de surveillance et prévoient de répondre publiquement dans un délai de 60 jours, conformément à leurs statuts.

Cependant, bien que la chronologie de la nouvelle politique d’étiquetage des IA suggère, comme l’a noté Axios, qu’elle a été révisée en réponse au rapport du Conseil de surveillance, elle ne mentionne pas directement les médias manipulés. Clegg insiste au nom de l’entreprise que « l’IA est à la fois une **épée** et un **bouclier**. »

Michael McConnell, co-président du Conseil, a déclaré que la politique actuelle n’a guère de sens. « Elle interdit les vidéos altérées montrant des individus disant des choses qu’ils n’ont pas dites, mais ne couvre pas les contenus affichant des actions que ces personnes n’ont pas effectuées. Elle s’applique uniquement aux vidéos créées via IA, laissant de côté d’autres contenus faux. »

Qu’il s’agisse d’IA ou non, tout contenu manipulé est problématique. En ne précisant pas ses règles, Meta laisse la porte ouverte à des abus.

En savoir plus sur Meta : Meta avertit que Mark Zuckerberg pourrait décéder à tout moment

FAQ

Que signifie “auto-étiquetage” pour Meta ?

L’auto-étiquetage consiste à ajouter des informations automatiques à des contenus comme des images ou des vidéos, pour indiquer leur origine ou si elles ont été générées par l’IA.

Pourquoi le rapport du Conseil de surveillance est-il important ?

Ce rapport met en lumière les défauts des politiques de gestion des contenus de Meta, révélant des incohérences dans la façon dont les contenus modifiés sont gérés sur ses plateformes.

Quels sont les risques de l’IA dans les contenus médiatiques ?

Les contenus générés par l’IA peuvent être utilisés pour produire des informations trompeuses ou des manipulations, ce qui soulève des inquiétudes en matière de désinformation et d’éthique.

Comment Meta prévoit-il d’améliorer ses politiques de contenus ?

Meta travaille sur l’élaboration de nouveaux critères et technologies qui pourraient lui permettre de mieux identifier les contenus générés par l’IA, afin de réduire les abus.

Existe-t-il déjà d’autres exemples de vidéos manipulées sur Meta ?

Oui, plusieurs autres cas de vidéos altérées ont été signalés, mais leur gestion varie selon leur classification et la politique actuelle de Meta.

Quitter la version mobile