Les Risques de la Technologie AI pour les Acteurs
Les récits d’acteurs ayant vendu leur image dans le cadre d’accords avec des entreprises d’intelligence artificielle révèlent des conséquences alarmantes. Nombreux sont ceux qui, en quête d’argent facile, découvrent désormais l’ampleur des abus et des tromperies potentielles liées à l’utilisation de leur ressemblance dans des vidéos. Cela va des arnaques personnelles sur les réseaux sociaux jusqu’à la manipulation politique.
L’Exemple Marquant de Simon Lee
Prenons le cas de Simon Lee, un acteur sud-coréen, qui a récemment réalisé que son image était exploitée pour promouvoir des « remèdes de santé douteux » sur des plateformes comme TikTok et Instagram. Malheureusement, les clauses de son contrat ne lui ont laissé aucune possibilité d’intervenir pour faire retirer ces vidéos. « Si cela avait été une belle publicité, cela ne m’aurait pas gêné », a-t-il confié à AFP, « mais il est évident que c’est une escroquerie. »
Une Découverte Éclairante pour Connor Yeates
Un autre témoignage marquant est celui de Connor Yeates, un acteur et mannequin britannique. En 2022, il a signé un contrat de trois ans avec la société Synthesia pour un montant de 5 240 dollars, car il se trouvait dans une situation financière précaire. Rapidement, il a découvert que son visage était utilisé dans une vidéo faisant la promotion d’Ibrahim Traoré, le président du Burkina Faso, qui a accédé au pouvoir à la suite d’un coup d’État. Cette exploitation était une violation flagrante des conditions d’utilisation de Synthesia.
Des Problèmes de Régulation
Alexandru Voica, responsable des affaires corporatives chez Synthesia, a évoqué ces incidents en expliquant que, par le passé, certains contenus avaient échappé à la modération en raison de lacunes dans les mesures de contrôle, notamment au sujet des contenus d’opinion ou à tendance provocatrice. Cela souligne la capacité de la technologie AI à propager de fausses informations, en particulier à travers des deepfakes réalistes.
Un Enjeu pour les Figures Publiques
Des personnalités célèbres comme Taylor Swift et Scarlett Johansson sont bien conscientes des détournements d’images qui peuvent se produire. Elles se sont retrouvées confrontées à des publicités utilisant des deepfakes pour promouvoir des messages politiques. Récemment, l’actrice ayant prêté sa voix au personnage d’Aloy dans les jeux vidéo Horizon a exprimé son malaise face à une imitation AI de sa performance. De plus, les acteurs de fond soulèvent des préoccupations sur la numérisation intégrale de leurs corps, permettant un usage indéfini par les studios.
Les Limites de la Protection des Acteurs
Ce phénomène met également en lumière les défis auxquels l’industrie du cinéma est confrontée face à l’émergence de l’AI. Bien que les acteurs aient lutté pour obtenir des protections contre l’AI générative, ces mesures sont rarement suffisantes et souvent inapplicables dans le secteur non syndiqué. Cela crée une opportunité pour les entreprises d’AI d’exploiter des acteurs en quête de travail, les enfermant dans des contrats douteux. Le travail est souvent facile : quelques heures devant un écran vert, à lire des répliques.
Mauvaise Compréhension des Contrats
Alyssa Malchiodi, avocate spécialisée en droit des affaires, a indiqué que de nombreux clients n’avaient pas saisi la portée de l’accord qu’ils avaient signé : « Un signal d’alerte majeur est l’utilisation d’un langage large, perpétuel et irrévocable, qui donne à l’entreprise des droits illimités sur l’image, la voix et la ressemblance d’un créateur. »
Vers des Changements?
Synthesia a récemment annoncé le lancement d’un programme d’expérience pour talents, visant à permettre aux acteurs de participer davantage aux décisions concernant leur image. Bien que ces mesures de protection soient appréciables, leur efficacité dépendra largement de leur adoption généralisée. Sinon, les entreprises pourraient choisir de ne pas engager d’acteurs réticents à céder le contrôle sur leur propre image.
FAQ
H4: Qu’est-ce qu’un deepfake ?
Un deepfake est une technologie qui utilise l’intelligence artificielle pour créer des vidéos ou des audios trompeurs, en superposant la voix ou le visage d’une personne sur une autre, souvent dans un but de manipulation.
H4: Pourquoi les acteurs ont-ils des contrats aussi restrictifs ?
Les acteurs, surtout ceux en début de carrière, peuvent être pressés par des problèmes financiers, ce qui les pousse à accepter des contrats moins favorables. Ils peuvent ne pas être pleinement conscients des implications de leurs engagements.
H4: Quels sont les risques associés à la numérisation des corps des acteurs ?
La numérisation indéfinie des corps peut entraîner l’utilisation non autorisée de leur image sur une durée illimitée, rendant les droits des acteurs plus vulnérables face à des exploitations futures.
H4: Les acteurs peuvent-ils se défendre contre l’utilisation abusive de leur image ?
La lenteur des régulations et la complexité des contrats rendent la tâche difficile, mais des actions juridiques et des mouvements collectifs peuvent les aider à protéger leurs droits.
H4: Comment les entreprises d’intelligence artificielle régulent-elles leur contenu ?
Actuellement, il existe des lacunes dans les systèmes de contrôle des contenus générés par l’AI, ce qui rend difficile la distinction entre les contenus légitimes et frauduleux, exposant ainsi les acteurs à des abus.
