L’illusion des larmes de crocodile alimentée par l’IA
Un certain nombre d’influenceurs pro-Trump, dont la soi-disant « journaliste d’investigation » Laura Loomer, ont été dupés par une image générée par l’IA, censée représenter les conséquences de l’ouragan Helene.
Une image trompeuse
Cette image montre une jeune fille assise dans une pirogue sous la pluie, tenant un petit chiot et les yeux remplis de larmes. Ce cliché, qui a commencé à circuler sur certaines plateformes du web d’extrême droite, a été amplifié par Robert « Buzz » Patterson, un écrivain conservateur et ancien pilote de l’Air Force, qui l’a partagée sur X (anciennement Twitter) avec la phrase choquante : « notre gouvernement nous a encore laissés tomber. »
La diffusion de la fausse nouvelle
Loomer n’a pas tardé à partager la publication de Patterson, ajoutant un commentaire émotif : « si triste ». Évidemment, cela aurait pu être vraiment triste, mais il s’agit en réalité d’une photo artificielle, manifestement créée par une IA.
L’image partagée par Patterson et Loomer était recadrée, et plusieurs détails suspects interpellent, notamment le visage étrangement lissé de la jeune fille et les figures de fond déformées. Dans son format original, partagé par d’autres sur X, l’image présente encore plus d’indications qu’elle a été générée par une IA, comme les doigts de la fille qui sont excessivement lisses et mal formés.
L’absence de scepticisme
Ni Patterson ni Loomer n’ont suggéré que cette image pourrait être une création de l’IA. Au contraire, ils ont diffusé cette illustration comme preuve d’un échec gouvernemental à soutenir les populations touchées par l’ouragan dans des régions comme le Tennessee et l’Ouest de la Caroline du Nord.
Le risque de désinformation
Cet incident met en lumière la prévalence des contenus générés par IA sur Internet et leur utilisation pour manipuler les opinions politiques, parfois de manière intentionnelle et d’autres fois par des chroniqueurs crédules dans un environnement d’information fragmenté.
Une manipulation grossière
Un autre utilisateur de droite a également partagé la même image, insinuant que la vice-présidente démocrate Kamala Harris a préféré investir dans la défense ukrainienne au lieu de trouver des solutions aux désastres naturels — une simplification excessive des dépenses publiques qui occulte le rôle du changement climatique dans l’aggravation des catastrophes naturelles.
Cet épisode illustre le souci croissant des figures MAGA de partager des contenus fabriqués par IA sur les réseaux sociaux. Une partie de ces contenus, comme la représentation fausse de l’adversaire de Trump en tant que dictateur communiste, se concentre davantage sur le renforcement de récits familiaux que sur l’authenticité.
Une crise humanitaire négligée
Ce phénomène déconcertant se produit alors qu’une crise humanitaire se déroule dans les Appalaches. En diffusant de fausses images de la situation, Loomer et ses pairs sont non seulement en train d’ajouter à la confusion, mais ils n’apportent aucune aide concrète à ceux qui en ont besoin.
FAQ
Qu’est-ce qu’une image générée par l’IA ?
Une image générée par l’IA est produite par des algorithmes qui utilisent des données pour créer des visuels qui imitent la réalité, mais qui peuvent être totalement fictifs.
Pourquoi des figures publiques partagent-elles de fausses informations ?
Souvent, ces figures partagent ces contenus par manque de vérification ou dans le but de renforcer une narrative qui les avantage, sans se soucier de la véracité des informations.
Comment repérer une image générée par l’IA ?
Des éléments tels que des anomalies dans les traits du visage, des arrière-plans déformés ou une incohérence dans les détails peuvent indiquer qu’une image a été générée par l’IA.
Quel est l’impact de la désinformation sur la société ?
La désinformation peut exacerber les tensions politiques, créer de la méfiance envers les institutions et mener à une polarisation accrue de l’opinion publique.
Existe-t-il des outils pour vérifier l’authenticité des images ?
Oui, des outils de recherche d’images inversées et des logiciels d’analyse peuvent aider à déterminer si une image a été manipulée ou créée par l’IA.
