Les souvenirs fabriqués et l’impact des deepfakes
Récemment, des études ont révélé qu’il est possible de créer des souvenirs falsifiés en montrant à des personnes des vidéos modifiées, appelées deepfakes, d’adaptations de films qui n’ont jamais été réalisées. Ces recherches, publiées dans la revue PLOS One, montrent à quel point ces clips peuvent tromper les participants, qui finissent par croire en leur authenticité. Certains d’entre eux ont même osé comparer ces films fictifs à des œuvres réelles, affirmant que ces remakes étaient meilleurs que les originaux, comme un prétendu « The Matrix » avec Will Smith.
Cependant, il est important de noter que cette étude a mis en lumière un point essentiel. Selon les chercheurs, les deepfakes ne sont pas plus efficaces que des simples descriptions écrites pour modifier les souvenirs. L’étude souligne que même sans ces technologies avancées, il est possible d’induire des souvenirs erronés chez les individus.
Une mise en garde sur les craintes relatives aux technologies
Gillian Murphy, la principale auteure de l’étude et experte en désinformation à l’Université de Cork, a mis en garde contre le fait de céder à la panique concernant l’avenir des technologies émergentes. Elle souligne que, bien qu’il existe des dangers réels associés aux deepfakes, il est crucial de collecter des données concrètes sur ces menaces avant de répondre à des problèmes qui n’ont pas encore été clairement définis. Elle exhorte à ne pas se précipiter dans des prédictions catastrophistes, et à considérer les faits avant de tirer des conclusions hâtives.
L’expérience des chercheurs avec des deepfakes
Les scientifiques ont proposé aux participants de visionner différents extraits de films réalisés avec des deepfakes, incluant par exemple Brad Pitt dans un remake de “The Shining” et Charlize Theron pour “Captain Marvel”. Dans leurs résultats, environ 49 % des participants ont été trompés par ces vidéos, dont 41 % ont jugé la version avec Charlize Theron supérieure à l’originale.
Un élément intéressant est que même des descriptions textuelles des deepfakes ont eu un effet similaire, remettant en question l’idée que ces vidéos auraient une capacité unique à bouleverser notre perception de la réalité. Murphy a expliqué que les résultats de l’étude n’indiquent pas que les deepfakes représentent une menace particulière, mais soulignent plutôt la nécessité d’une vigilance accrue dans l’ère de l’information.
Conseils pour se prémunir contre les deepfakes
Pour éviter d’être manipulé par des deepfakes, il est indispensable d’améliorer la littéracie numérique des individus, pour qu’ils puissent distinguer entre contenu réel et falsifié. L’IA générative ne va pas s’arrêter de progresser, il est donc essentiel de demeurer attentif afin d’éviter que cette technologie ne déforme notre mémoire collective.
En résumé, bien que les deepfakes soient une préoccupation croissante, les études actuelles montrent qu’ils ne sont pas la seule voie pour induire des souvenirs erronés. La vigilance dans le traitement de l’information est plus importante que jamais.
FAQ
Qu’est-ce qu’un deepfake ?
Un deepfake est une technique qui utilise l’intelligence artificielle pour créer des vidéos ou des audios falsifiés, dans lesquels les visages ou les voix peuvent être modifiés de manière à imiter quelqu’un d’autre.
Pourquoi les deepfakes sont-ils dangereux ?
Les deepfakes peuvent être dangereux car ils peuvent déformer la réalité et induire en erreur les gens, en présentant de fausses informations de manière convaincante.
Comment reconnaître un deepfake ?
Il peut être difficile de repérer un deepfake, mais des signes tels que des mouvements de lèvres non coordonnés, des expressions faciales étranges ou une qualité d’image fluctuante peuvent indiquer une falsification.
Quelles sont les limites des deepfakes ?
Bien que les deepfakes peuvent tromper visuellement, leur efficacité dépend fortement du contexte et de la présentation, ce qui signifie que des méthodes traditionnelles comme des descriptions écrites peuvent avoir un impact similaire sur la mémoire.
Quel avenir pour les deepfakes ?
Avec la progression de la technologie et des méthodes de création de deepfakes, la vigilance sera essentielle pour protéger la vérité et la confiance dans les médias.
