Intelligence Artificielle

Manipulations Visuelles : Les Images Virales de Soldats Américains Capturés en Iran Dévoilées Comme de Faux Contenus.

Manipulations Visuelles : Les Images Virales de Soldats Américains Capturés en Iran Dévoilées Comme de Faux Contenus.

Vous ne pourrez pas croire ce que vous voyez, mais à l’ère de l’IA générative, il est peut-être temps de s’interroger.

Des images virales trompeuses

Récemment, un ensemble d’images a fait le tour des réseaux sociaux, prétendant montrer des soldats américains capturés par l’Iran, une information qui pourrait bouleverser la situation déjà tendue entre les États-Unis et l’Iran. Diffusées partout sur des plateformes comme X et Facebook le 5 mars, ces images étaient accompagnées de légendes affirmant que des troupes de la Delta Force américaine avaient été arrêtées. Ces contenus ont été partagés dans plusieurs langues, notamment l’anglais, l’arabe, l’espagnol et le français, atteignant un public international.

Cependant, ces images sont fausses. Des enquêteurs et des vérificateurs de faits estiment qu’elles ont été créées par une intelligence artificielle.

Les signes révélateurs de l’IA générative

Les analystes qui ont examiné ces images ont rapidement décelé des indices qui montrent clairement qu’elles sont synthétiques. Chaque image comporte un petit filigrane en forme d’éclat, lié à l’outil de génération d’images de Google, Gemini. Des recherches inversées d’images utilisant l’outil “À propos de cette image” de Google ont également révélé que ces visuels avaient été produits grâce à l’IA de Google, indiquant des filigranes numériques SynthID incorporés.

Au-delà des filigranes, les photos présentent ce que les chercheurs identifient comme des erreurs classiques des images générées par IA. Par exemple, les doigts des soldats apparaissent déformés, leurs visages semblent flous, et les motifs de camouflage ainsi que les emblèmes militaires ne correspondent pas. Dans l’une des images, un personnage en arrière-plan semble avoir trois bras, une erreur anatomique fréquente lors de la création de poses humaines complexes par les modèles génératifs.

A lire :  Le PDG de Replika : L’amour pour les chatbots, une solution pour la solitude ?

La combinaison de ces incohérences visuelles et des filigranes associés à l’IA indique fortement que les images ne sont pas le fruit d’une photographie réelle.

Contexte géopolitique tendu

Cette désinformation apparaît à un moment où les tensions au Moyen-Orient sont à leur paroxysme. Le dernier conflit a éclaté le 28 février après des frappes US-israéliennes qui auraient tué le guide suprême iranien, l’Ayatollah Ali Khamenei, déclenchant des représailles militaires dans la région.

Au milieu de cette agitation, le ministre des Affaires étrangères iranien, Abbas Araghchi, a mis en garde que toute invasion terrestre américaine ou israélienne serait “une catastrophe” pour ces nations. Le président américain Donald Trump a minimisé cette éventualité, évoquant les risques liés à l’envoi de troupes américaines en Iran comme un “gaspillage de temps”. Toutefois, les images circulant suggèrent que des forces américaines pourraient déjà être présentes en Iran.

Bien que le Pentagone ait confirmé que six soldats américains ont été tués dans une attaque par drone au Koweït peu après le début des hostilités, aucune preuve n’indique que d’autres soldats aient été capturés.

Une vague plus large de désinformation en période de guerre

Cet incident illustre la montée de la désinformation depuis le début du conflit. Les images générées par l’IA et les médias recyclés apparaissent de plus en plus souvent en parallèle des événements géopolitiques. L’organisation de vérification des faits Full Fact a signalé au moins sept images créées ou améliorées par l’IA et plus d’une douzaine de vidéos mal légendées liées au conflit, circulant depuis le début des affrontements au Moyen-Orient.

A lire :  Peluche intelligente retirée du marché après des interactions inquiétantes avec des enfants

Les publications mensongères peuvent accumuler des milliers d’interactions avant d’être démenties. Certaines d’entre elles, bien qu’évidemment fabriquées et parfois portant encore des filigranes visibles, parviennent à se diffuser largement. Dans l’environnement rapide des réseaux sociaux, la désinformation peut facilement prendre de l’ampleur et être difficile à rectifier une fois qu’elle est en circulation.

Parmi les exemples récents documentés par des chercheurs, on note des images truquées montrant Khamenei enseveli sous des décombres, ainsi que des scènes fantaisistes illustrant le Burj Khalifa ou le USS Abraham Lincoln en proie aux flammes.

Anciennes vidéos réutilisées comme actualités

La désinformation en période de crise n’est pas un phénomène récent, et tous les maux ne peuvent être attribués à l’intelligence artificielle. De nombreux cas modernes reposent sur la réutilisation d’images ou de vidéos anciennes présentées comme des preuves de événements actuels.

Par exemple, une vidéo dramatique d’explosions près d’un bâtiment circulant comme étant issue de Tel Aviv montre en fait un incendie dans un entrepôt en Chine en 2015. Les mêmes images avaient déjà été mal légendées lors d’autres événements mondiaux, y compris des attaques iraniennes contre Israël en 2024 et l’invasion de l’Ukraine par la Russie en 2022.

Certaines vidéos offrent une approche encore plus ancienne, comme une qui prétendait montrer des bases américaines dans le Golfe attaquées et qui date en réalité des débuts de la guerre d’Irak en 2003. Ces clips recyclés remportent souvent un franc succès grâce à leur apparence dramatique, surtout lorsqu’ils sont sortis de leur contexte.

Pourquoi il devient plus difficile de détecter les contrefaçons d’IA

La démocratisation de l’utilisation des outils d’IA générative, combinée à des tactiques de désinformation bien ancrées, complique le processus de vérification. Des filigranes visibles intégrés par des outils comme Gemini peuvent révéler certaines images synthétiques, mais ce n’est pas une garantie. Les individus peuvent facilement les rogner, et beaucoup de systèmes d’IA n’intègrent pas de repères visibles dans leur contenu généré.

A lire :  Vidéo Choc : Un Homme Traîne un Robot par une Chaîne autour du Cou.

Le filigrane invisible SynthID de Google n’est pas universel sur toutes les plateformes d’IA, si bien que son absence ne prouve pas forcément l’authenticité. Ces images virales de « soldats capturés » montrent comment les outils d’IA peuvent devenir un nouveau front dans la guerre de l’information. Alors que les modèles d’IA se perfectionnent et se démocratisent, des experts préviennent que les exemples d’images de guerre fabriquées pourraient devenir beaucoup plus difficiles à repérer.

Le déluge d’images et de vidéos manipulées lors de crises rapides peut rapidement submerger le public et brouiller la frontière entre la documentation réelle et la fabrication synthétique. Pour les journalistes et les chercheurs, cela signifie que des techniques de vérification comme les recherches inversées, l’analyse des métadonnées et l’examen visuel minutieux deviennent de plus en plus cruciales.

Pour les utilisateurs des réseaux sociaux cherchant à vérifier des images suspectes, la première étape consiste probablement à se ralentir et à vérifier les faits avant de partager des contenus spectaculaires.

À l’ère de l’IA générative, les premières images d’un événement d’actualité ne sont plus nécessairement des preuves, mais peuvent en réalité être des fabrications.

À lire aussi : Pour éviter les faux, découvrez 5 astuces simples pour repérer les images générées par IA.

FAQ

Quelles sont les conséquences de la désinformation sur les réseaux sociaux ?

La désinformation peut transformer l’opinion publique, influencer les décisions politiques et altérer la perception des événements internationaux.

Comment vérifier l’authenticité d’une image sur les réseaux sociaux ?

Utilisez des outils de recherche d’images inversées, cherchez des filigranes visibles et examinez les métadonnées associées à l’image.

Les technologies d’IA peuvent-elles être utilisées à des fins bénéfiques ?

Oui, l’IA est utilisée pour des applications positives, telles que l’analyse de données, la médecine prédictive et l’amélioration de l’efficacité des processus industriels.

Quelles sont les limites des vérifications d’images par IA ?

Les systèmes d’IA peuvent parfois produire des erreurs, et certains peuvent générer du contenu sans marqueurs visibles, compliquant la vérification.

Pourquoi est-il important de sensibiliser le public à ces problèmes ?

Sensibiliser le public leur permet de devenir des consommateurs d’information critiques, leur enseignant à mieux identifier la désinformation et à ne pas la propager.