La menace de l’IA générative
L’essor de l’intelligence artificielle générative soulève des préoccupations majeures, notamment celle permettant à des individus malintentionnés de se faire passer pour vous. Face à cette menace croissante, YouTube, la plus grande plateforme de vidéos au monde, propose désormais un mécanisme permettant aux utilisateurs de demander la suppression de contenus générés par IA qui imitent leur apparence ou leur voix. Cela marque un tournant comparé aux précédentes règles plutôt laxistes concernant cette technologie.
Une mise à jour discrète
Récemment, YouTube a intégré cette capacité dans ses Lignes Directrices de Confidentialité. Bien que cette information soit restée sous le radar jusqu’à ce que le site TechCrunch en fasse état, elle indique que YouTube considère l’utilisation d’une IA pour modifier ou créer du contenu qui ressemble à une personne comme une violation de la vie privée. Ce changement est significatif, le plaçant davantage sur le terrain des questions de vie privée plutôt que des problèmes de désinformation ou de droits d’auteur.
Ambiguïtés dans l’application
Il est important de noter que faire une demande de suppression ne garantit pas son aboutissement. Les critères énoncés par YouTube comportent une certaine ambiguïté. Par exemple, les facteurs pris en compte incluent si le contenu est étiqueté comme modifié ou synthétique, si la personne est uniquement identifiable, et si le contenu paraît réaliste.
Cependant, un aspect problématique demeure : YouTube pourrait tolérer les contenus qui relèvent de la parodie ou de la satire, ainsi que ceux qui auraient un intérêt public. Cette flexibilité témoigne d’une volonté de ne pas adopter une position radicale contre l’IA.
Principes de la loi
En ce qui concerne le traitement des violations de la vie privée, YouTube précise qu’il se contentera d’écouter les plaintes de première partie. Cela signifie que seules les personnes directement concernées pourront soumettre des demandes, sauf dans des cas exceptionnels, tels que si la personne concernée est mineure, décédée, ou n’a pas accès à Internet.
Une fois une plainte validée, YouTube accorde à l’utilisateur incriminé 48 heures pour prendre des mesures, que ce soit en coupant des scènes, en floutant des éléments ou en supprimant totalement la vidéo. En cas d’inaction, une révision supplémentaire par l’équipe YouTube sera effectuée.
YouTube prend ces questions de vie privée au sérieux, indiquant dans ses directives qu’une vidéo ou un contenu retiré pour violation de la vie privée ne doit pas être re-téléchargé avec des personnes similaires. Des comptes peuvent ainsi être suspendus en cas de répétition de ces violations.
Un encadrement encore flou
Même si ces règles semblent prometteuses, la véritable question reste l’efficacité de leur mise en œuvre. YouTube, qui appartient à Google, a ses propres intérêts dans le domaine de l’IA. La plateforme a récemment lancé un outil de génération de musique et un bot capable de résumer les commentaires sous les vidéos. Par conséquent, cette introduction discrète de la possibilité de demander la suppression de contenu AI peut être perçue comme un pas timide vers une régulation plus sérieuse.
Ce nouvel ajout à leurs directives représente peut-être une continuation mesurée de leur initiative concernant une IA responsable, mise en avant l’année dernière. Dès le mois de mars, l’obligation de déclarer certains contenus générés par IA a été instaurée.
Bien que ces efforts soient encourageants, il est probable que YouTube reste moins prompt à agir contre les contenus problématiques générés par l’IA par rapport à ses actions pour des violation de droits d’auteur. Cela dit, c’est un petit pas dans la bonne direction.
FAQ
Quelle est la portée de la nouvelle fonctionnalité de YouTube ?
YouTube permet désormais aux utilisateurs de demander la suppression de contenus AI qui imitent leur apparence ou leur voix, principalement à des fins de protection de la vie privée.
Comment YouTube définit-il une violation de la vie privée ?
YouTube considère la création de contenus synthétiques qui ressemblent à une personne réelle comme une potentielle violation de la vie privée, plutôt que comme un problème de désinformation.
Que se passe-t-il si un utilisateur ne supprime pas le contenu après notification ?
Si l’utilisateur n’agit pas dans le délai imparti de 48 heures, son contenu sera soumis à une révision plus approfondie par l’équipe de YouTube.
Quelles sont les exceptions pour les réclamations tierces ?
Les réclamations venant de tiers ne seront prises en compte que dans des cas exceptionnels, par exemple, si la personne concernée est mineure ou décédée.
Est-ce que les contenus considérés comme parodiques sont protégés ?
Oui, YouTube peut choisir de ne pas supprimer du contenu s’il est jugé comme étant de la parodie, de la satire, ou s’il a une valeur d’intérêt public, ce qui pourrait rendre l’application des règles plus compliquée.
