Intelligence Artificielle

Une IA Deepfake Effrayante: Modifications Vidéo en Direct Selon Vos Transcriptions

Une IA Deepfake Effrayante: Modifications Vidéo en Direct Selon Vos Transcriptions

La puissance de la plume

Si vous savez taper, vous pouvez désormais créer un **deepfake** convaincant.

Les avancées récentes en **intelligence artificielle** facilitent considérablement la création de clips vidéo ou audio dans lesquels une personne semble dire ou faire quelque chose qu’elle n’a pas réellement exprimé.

Une équipe de chercheurs a mis au point un nouvel algorithme qui rend le processus de création de deepfakes incroyablement simple. Cet algorithme permet au sujet d’une vidéo de “dire” toute modification apportée à la transcription du clip, suscitant même des inquiétudes parmi ses créateurs sur les conséquences potentielles si cette technologie était mal utilisée.

Édition textuelle de vidéos parlant (SIGGRAPH 2019)

Des manipulations intelligentes

Les chercheurs de l’**Université Stanford**, de l’**Université Princeton**, de l’**Institut Max Planck pour l’informatique** et d’**Adobe** expliquent dans un document publié cette semaine comment fonctionne cet algorithme révolutionnaire.

Tout d’abord, l’IA examine une vidéo source d’une personne qui parle. Pas seulement en se concentrant sur les mots prononcés, mais en identifiant chaque son, ou **phénomène**, émis par la personne. Cette technologie analyse également les gestes ou mouvements de la bouche associés à chaque son.

Dans la langue **anglaise**, il n’y a qu’environ 44 phonèmes. Selon les chercheurs, tant que la vidéo source dure au moins 40 minutes, l’IA peut recueillir suffisamment d’informations pour faire en sorte que la personne semble dire n’importe quoi.

Il suffit alors d’éditer le texte de la vidéo, et l’IA génère un deepfake qui correspond à la nouvelle transcription en assemblant habilement les sons et mouvements de bouche nécessaires.

Réflexions sur les conséquences

D’après les démonstrations vidéo de ce nouvel algorithme, il semble le mieux adapté pour apporter des **modifications mineures**. Par exemple, les chercheurs montrent comment l’IA peut remplacer “napalm” dans la célèbre citation du film **”Apocalypse Now”**, “J’adore l’odeur du napalm le matin”, par le plus inoffensif “pain perdu”.

Cependant, ces experts craignent que certains n’exploitent cette technologie pour des fins plus destructrices.

Ils reconnaissent que des individus malveillants pourraient utiliser ces outils pour falsifier des déclarations personnelles et diffamer des personnalités influentes. Ils soulignent également la nécessité d’une discussion publique robuste pour établir des réglementations et des lois adéquates, équilibrant les risques d’abus de ces outils avec l’importance de leur utilisation créative et consensuelle.

POUR ALLER PLUS LOIN : Ce nouvel algorithme permet de modifier ce que les gens disent dans une vidéo via l’édition de la transcription [The Next Web]

À PROPOS DES DEEPFAKES : Cet IA qui imite parfaitement Joe Rogan devrait nous inquiéter tous.

FAQ

Qu’est-ce qu’un deepfake ?

Un deepfake est un contenu multimédia modifié à l’aide de l’intelligence artificielle, créant une illusion d’une personne disant ou faisant quelque chose qu’elle n’a pas réellement fait.

Comment fonctionne cette technologie ?

Elle analyse une vidéo ou un audio pour identifier les phonèmes et leurs mouvements associés, permettant ensuite de modifier les transcriptions pour créer une nouvelle performance authentique.

Quels sont les risques potentiels des deepfakes ?

Les deepfakes peuvent être utilisés pour la désinformation, la diffamation et d’autres activités malveillantes. Ils représentent un défi sérieux pour l’intégrité de l’information.

Existe-t-il des solutions pour contrer les deepfakes ?

Des experts proposent des outils de détection basés sur l’IA pour identifier les deepfakes, mais les solutions doivent continuellement évoluer avec les technologies utilisées pour les créer.

Pourquoi est-il essentiel d’établir des règles autour des deepfakes ?

Des régulations sont nécessaires pour prévenir l’utilisation abusive de cette technologie tout en permettant son utilisation éthique et créative.

A lire :  Allstate Exige la Suppression de Citations de ses Dirigeants sur l'Utilisation de l'IA pour Rédiger des Emails d'Assurance.