Intelligence Artificielle

Piégé par une vidéo générée par l’IA, Newsmax diffuse un segment entier en la croyant authentique

Piégé par une vidéo générée par l’IA, Newsmax diffuse un segment entier en la croyant authentique

Un autre média de droite s’est laissé prendre à un faux clip généré par l’IA présenté comme une scène réelle de caisse de supermarché: une femme y hurle qu’elle repartira sans payer parce que “on lui a coupé ses food stamps”. La séquence a été mise à l’antenne le 30 octobre par Newsmax, puis relayée sur ses réseaux sociaux, alors qu’elle est fabriquée de toutes pièces.

Ce qui s’est passé

  • Le court extrait de quinze secondes circule depuis peu et a déjà été pris pour authentique par plusieurs médias, dont Fox. L’objectif: nourrir l’indignation contre le SNAP (Supplemental Nutrition Assistance Program), l’aide alimentaire fédérale dont dépendent près d’un Américain sur huit.
  • Contexte aggravant: un shutdown prolongé a réduit les capacités financières du programme, accentuant l’anxiété de familles vivant sous ou près du seuil de pauvreté, avec une proportion importante d’enfants, de personnes âgées et de personnes en situation de handicap.

Comment la séquence a été mise en scène

Dans une rubrique intitulée “The Cost of Free Stuff”, le présentateur Carl Higbie a dénoncé un supposé “entitlement” des bénéficiaires, laissant entendre que leur situation résulterait de “mauvaises décisions” personnelles. La séquence factice est alors diffusée, surmontée d’un bandeau provocateur: “We Are Only Nation Where Poor People Are Obese.”
Higbie extrapole ensuite sur la vie privée de la femme… qui n’existe pas: il suggère qu’elle profiterait aussi d’un subsidy de santé, alors que tout provient d’un personnage synthétique.

A lire :  Déploiement Fulgurant de l'IA en Chine

Pourquoi c’est un deepfake

  • Le clip est très probablement généré avec Sora 2, l’outil vidéo d’OpenAI. Indices concordants: le réalisme de la scène, le format court et surtout la durée maximale de 15 secondes, précisément la limite standard imposée par l’outil.
  • Cette technologie est déjà capable de simuler des méfaits ou des altercations crédibles, assez pour égarer un public non averti et même des rédactions pressées.

Réactions et suite

  • Malgré la découverte du faux, Newsmax a conservé l’extrait sur ses réseaux sociaux sans rectification visible.
  • Le commentateur et analyste Ryan McBeth a publiquement signalé l’erreur, parlant d’un “malentendu” sans intention malveillante, et affirme avoir transmis des éléments à Christopher Ruddy, PDG de Newsmax, qui aurait promis une correction. À ce stade, difficile de vérifier l’issue: les extraits de l’émission restent en ligne.

Un phénomène plus large et inquiétant

  • Une partie de la droite américaine assume l’usage de l’IA pour produire des images et vidéos politiques: glorification de dirigeants, moqueries envers des opposants, et diffusion de stéréotypes via des montages visant des personnes noires présentées en train de vendre leurs food stamps.
  • Les plateformes sociales voient régulièrement des deepfakes viraux, comme l’épisode où circulait une fausse annonce d’annulation de l’élection présidentielle irlandaise.
  • Le schéma devient prévisible: publier d’abord une contre-vérité visuelle qui frappe, corriger discrètement (ou tard) quand l’audience a déjà intégré l’image.

Ce que cela révèle sur l’information aujourd’hui

  • Les contenus synthétiques ébranlent la confiance et brouillent la frontière entre le réel et la fiction.
  • Les médias ont un devoir de vérification renforcé, surtout quand un sujet touche des publics vulnérables.
  • Pour le public, cultiver des réflexes de vérification (source, contexte, incohérences visuelles, mention d’IA) devient une compétence civique de base.
A lire :  OpenAI Annonce la Résolution du Problème de Messages Inattendus dans ChatGPT

Conseils pratiques pour ne pas se faire piéger

  • Chercher la source originale du clip et d’éventuelles corrections ultérieures.
  • Repérer des signes techniques: mouvements trop fluides ou au contraire saccadés, mains ou yeux étranges, textes flous sur des étiquettes, bande-son décalée.
  • Croiser l’info avec des médias multiples et des organisations de fact-checking.
  • Se méfier des vidéos qui confirment parfaitement un biais ou un stéréotype: c’est un signal d’alarme.

En résumé

Une vidéo de supermarché créée par IA a été présentée comme réelle pour alimenter une narration politique visant les bénéficiaires du SNAP. L’erreur illustre la facilité avec laquelle des images synthétiques s’insinuent dans le débat et l’urgence, pour médias et citoyens, de vérifier avant de partager.

FAQ

Comment reconnaître rapidement une vidéo générée par l’IA ?

  • Cherchez des détails qui “accrochent”: mains déformées, regards figés, mouvements de bouche légèrement désynchronisés, éclairages incohérents, arrière-plans qui “fondent” ou se reconfigurent. L’audio trop propre ou étrangement compressé est un autre indice.

Qu’est-ce que le SNAP et qui y a droit ?

  • Le SNAP est l’aide alimentaire fédérale américaine. Elle cible principalement les ménages à faibles revenus, avec de nombreux enfants, aînés et personnes handicapées. L’éligibilité dépend des revenus et de la composition du foyer.

Que faire si vos prestations sont retardées lors d’un shutdown ?

  • Contacter l’agence locale qui gère le SNAP, vérifier les dates de versement, et se tourner vers des banques alimentaires et associations. Conservez les justificatifs et surveillez les annonces officielles sur les prolongations temporaires.

Les médias ont-ils l’obligation de corriger publiquement ?

  • Les bonnes pratiques éditoriales imposent une correction claire et traçable dès qu’une erreur substantielle est identifiée, surtout si l’info a été amplifiée sur les réseaux sociaux.
A lire :  La NASA Accusée d'Acquérir un Logiciel de Surveillance IA Controversé

Les outils comme Sora 2 sont-ils détectables automatiquement ?

  • Il existe des détecteurs, mais aucun n’est infaillible. Les meilleures garanties restent la transparence des sources, la vérification humaine et la littératie numérique du public.