Une colère légitime des photographes
Les photographes sont en émoi. En effet, ils accusent Meta d’attribuer à leurs œuvres un label trompeur de “Fait avec IA” sur des plateformes comme Facebook, Instagram et Threads. Ce phénomène soulève des inquiétudes majeures concernant la reconnaissance de leur travail authentique.
Effets indésirables des initiatives de Meta
Comme le souligne TechCrunch, la tentative de la société de freiner la diffusion d’images générées par IA, qui ne portent pas d’étiquette d’identification, entraîne des conséquences fâcheuses. La propagation de contenu falsifié, parfois d’une réalisme trompeur, s’accélère sur internet, notamment sur Facebook, créant une atmosphère d’incertitude face aux vérités des images.
Malgré une technologie de pointe, il est devenu particulièrement ardu, même pour une entreprise de haute technologie comme Meta, de faire la distinction entre le contenu réel et celui produit par l’IA. OpenAI elle-même a rencontré des difficultés à créer des outils efficaces pour identifier la différence entre des textes humains et ceux générés par des machines, mettant en lumière la complexité de la situation.
Une indignation supplémentaire
L’ancien photographe de la Maison Blanche, Pete Souza, a partagé ses préoccupations avec TechCrunch. Il a suggéré que les modifications apportées par Adobe à ses outils d’édition photo pourraient être à l’origine de ces attributions erronées. Il a affirmé : « Ce qui est frustrant, c’est que j’ai été contraint de sélectionner « Fait avec IA » alors que je n’avais pas coché cette option. »
En février, Meta a lancé une initiative de relations publiques pour rassurer les utilisateurs en annonçant qu’elle s’efforçait d’établir des « normes techniques communes » pour identifier le contenu généré par l’IA. Nick Clegg, le président des affaires mondiales de Meta, a déclaré dans un billet de blog que la distinction entre le contenu humain et synthétique devient floue, d’où le besoin accru de transparence concernant cette nouvelle technologie.
Cependant, bien que les intentions soient louables, les algorithmes de l’entreprise semblent accuser à tort de nombreux photographes d’avoir téléchargé du contenu généré par l’IA.
Des témoignages alarmants
Un photographe de film a exprimé son désarroi en partageant sur Threads sa première expérience avec cette étiquette indésirable : « Aucune IA n’a été utilisée dans ce travail — c’est inquiétant ! » Un autre photographe, Peter Yan, a également critiqué l’erreur en demandant sur la même plateforme comment une de ses photos pouvait être étiquetée comme étant faite avec de l’IA, alors qu’il avait simplement utilisé Photoshop pour quelques retouches.
Cette situation met en lumière la difficulté croissante pour Meta de gérer le déferlement d’images générées par l’IA, alors que Facebook semble perdre contrôle face à une multitude d’images qui deviennent virales, récoltant des centaines de likes, malgré leurs origines douteuses.
Meta soutient toutefois que son algorithme de labeling est encore en développement et qu’ils collaborent avec d’autres entreprises pour l’ajuster.
FAQ
Qu’est-ce qui cause les erreurs d’étiquetage par Meta ?
Les erreurs proviennent de la complexité et de la diversité des outils de création d’images. Des mises à jour dans les logiciels d’édition peuvent interférer avec les algorithmes d’IA de Meta.
Quelle est l’importance du label “Fait avec IA” ?
Ce label est essentiel pour signaler le potentiel de manipulation médiatique et aider à identifier les contenus authentiques, surtout à une époque où les médias sont facilement modifiables.
Comment Meta envisage-t-elle d’améliorer son algorithme ?
L’entreprise travaille sur des collaborations avec d’autres acteurs du secteur pour établir des normes techniques qui assureront une meilleure identification des contenus générés par IA.
Les utilisateurs peuvent-ils contester un étiquetage incorrect ?
Oui, les utilisateurs peuvent signaler des erreurs, mais le processus peut varier en fonction des plateformes et n’est pas toujours clair.
Pourquoi est-il crucial de réglementer le contenu généré par IA ?
La réglementation est nécessaire pour éviter la propagation de fausses informations et protéger les créateurs de contenus authentiques, en maintenant l’intégrité des plateformes.
