Lutte contre les Faux Images
La DARPA, le bureau de recherche du ministère américain de la Défense, s’investit intensément dans la lutte contre les contrefaçons numériques. Au cours des deux dernières années, cette branche a alloué 68 millions de dollars au développement de technologies de criminalistique numérique pour détecter de telles manipulations.
Problématique des Deepfakes
Pour l’agence, il est essentiel de repérer et de combattre les deepfakes — ces images et vidéos retouchées utilisées pour créer de la propagande ou des contenus trompeurs, allant de discours politiques réinventés à des contenus pornographiques. Cela a été souligné par la Canadian Broadcasting Corporation, qui en fait un enjeu de sécurité nationale.
Une Bataille Difficile
Malgré tous ses efforts, la DARPA pourrait être engagée dans une bataille perdue d’avance, comme le fait remarquer Hany Farid, expert en informatique et en criminalistique numérique à Dartmouth College. Selon lui, l’adversaire dispose toujours d’un avantage. Il est en effet plus simple de créer une image ou une vidéo trompeuse convaincante que de les détecter. « Même si nous réussissons sur le plan de la criminalistique, il faudra davantage de temps, d’efforts, de compétences et de risques », a-t-il indiqué à la ___, soulignant ainsi la difficulté du défi.
La CBC a également pu récupérer des vidéos et des images démontrant l’intelligence artificielle développée par la DARPA pour détecter des deepfakes. Bien que ce soit un exploit impressionnant de la part d’un système automatisé, les vidéos mises en avant montrent clairement des manipulations simples, loin des deepfakes les plus avancés, capables d’imiter des voix et des expressions faciales de manière très réaliste.
Détection des Anomalies
Des exemples supplémentaires partagés par la CBC illustrent le travail de l’algorithme de la DARPA à détecter des incohérences dans l’éclairage et d’autres indicateurs subtils baromètres d’une vidéo falsifiée. Les individus cherchant à créer des deepfakes trompeurs pourraient toujours avoir une longueur d’avance sur ceux qui tentent de les contrer. Néanmoins, le programme de criminalistique numérique de la DARPA dispose encore de deux années de recherche à réaliser.
Tant que l’agence continuera à surveiller les nouvelles techniques de deepfake et à mettre à jour ses algorithmes, elle pourra probablement détecter presque toutes les productions, à l’exception des plus sophistiquées. Cela pourrait s’avérer crucial, notamment dans des scénarios catastrophiques, comme une annonce de frappe nucléaire sur fond de faux médias.
FAQ
Qu’est-ce qu’un deepfake ?
Un deepfake est un type de contenu visuel ou audio manipulé, généralement créé à l’aide de l’intelligence artificielle, afin de faire dire ou faire apparaître une personne de manière trompeuse.
Comment détecte-t-on les deepfakes ?
Les algorithmes de détection se basent sur des méthodes de criminalistique numérique qui analysent des incohérences dans les vidéos, telles que l’éclairage, le mouvement et d’autres indications.
Qui utilise les deepfakes ?
Les deepfakes peuvent être utilisés pour différentes raisons, allant de la satire et de la comédie à la propagande, en passant par le cyberharcèlement et la désinformation.
Quels sont les dangers des deepfakes ?
Les deepfakes présentent le risque de désinformer le public, de nuire à des individus et de compromettre la confiance dans les médias et les informations.
Comment les gouvernements réagissent-ils face aux deepfakes ?
De nombreux gouvernements investissent dans des recherches et des technologies pour contrer le phénomène, en collaborant avec des agences comme la DARPA pour développer des solutions efficaces.
