Intelligence Artificielle

Dupée par des images générées par IA, Fox News publie une fausse info sur les coupons alimentaires avant un correctif majeur.

Dupée par des images générées par IA, Fox News publie une fausse info sur les coupons alimentaires avant un correctif majeur.

Des vidéos fabriquées par l’IA, conçues pour provoquer l’indignation, ont été prises au sérieux par Fox News et utilisées pour nourrir la colère contre les bénéficiaires de SNAP (les « food stamps »). L’épisode illustre à quel point des images artificielles peuvent orienter l’opinion publique au moment où des dizaines de millions d’Américains s’inquiètent de leur capacité à payer leurs courses.

D’où vient la polémique

Une série de clips viraux, générés par IA, met en scène des personnes supposément dépendantes de SNAP se disputant dans des magasins, exigeant de partir avec des produits sans payer, ou accusant le système de les avoir « privés » d’aide. Ces vidéos sont calibrées pour susciter une réaction émotionnelle immédiate — du ragebait pur. Dans l’un des extraits les plus partagés, une cliente hurle sur un employé en affirmant que ses aides alimentaires auraient été réduites et qu’elle ne paiera pas ses achats.

Des indices évidents… ignorés

Plusieurs détails trahissaient la nature artificielle de ces séquences: mouvements faciaux légèrement décalés, audio peu naturel, transitions bizarres entre les plans, et une mise en scène caricaturale. Malgré ces signaux, le contenu a circulé sans filtre, jusqu’à être repris comme s’il s’agissait de scènes authentiques.

Comment Fox News a amplifié l’intox

Le réseau a diffusé un sujet traitant ces images comme des faits. L’angle prêtait à controverse: s’appuyer sur des vidéos douteuses pour dénigrer les bénéficiaires de SNAP, un programme qui profite surtout aux enfants, aux personnes âgées et aux personnes en situation de handicap. Dans la réalité, l’aide est modeste: on parle d’environ 177 dollars par mois et par personne en moyenne, destinée à l’achat d’aliments pour la maison — pas de plats chauds prêts à consommer, ni de produits comme l’alcool ou le tabac.

Une réécriture en catastrophe

Après la diffusion, l’article en ligne a été presque intégralement remanié. Une note de la rédaction a admis que certaines vidéos « semblent avoir été générées par l’IA » et que cela n’avait pas été précisé initialement. Le titre a aussi été changé: d’un message accusateur insinuant des menaces de saccage liées à SNAP, on est passé à une formulation reconnaissant la viralité de vidéos d’origine IA. Certaines citations très choquantes ont été conservées, mais désormais assorties d’une mention indiquant que les extraits ne sont probablement pas authentiques.

Pourquoi c’est grave

Même si ces scènes avaient été réelles, bâtir un sujet à partir de quelques cas isolés pour alimenter des préjugés est une démarche journalistiquement fragile. Le fait de s’appuyer sur des contenus fabriqués aggrave encore le problème: l’IA fournit des « preuves » plausibles au service de narratifs stigmatisants. Le tout survient alors qu’environ 41 millions de personnes aux États-Unis s’inquiètent du coût de l’alimentation. Résultat: un cocktail de désinformation et de vulnérabilité sociale qui mine la confiance du public.

Ce qu’il faut retenir

  • Les vidéos virales peuvent être des fabrications IA très convaincantes.
  • SNAP est un filet de sécurité modeste et ciblé, pas une manne: environ 177 dollars par personne et par mois, principalement pour des aliments destinés à la consommation à domicile.
  • Transformer des cas sensationnels (et ici, artificiels) en généralités renforce des stéréotypes et détourne des enjeux réels: la précarité alimentaire et l’accès aux produits de base.
  • La responsabilité éditoriale implique de vérifier l’authenticité des images avant de les présenter comme des faits.

Conseils pratiques pour repérer une vidéo douteuse

  • Surveillez les détails visuels: synchronisation des lèvres, mains et doigts étranges, ombres incohérentes, textures de peau uniformes.
  • Écoutez l’audio: intonations monotones, respirations artificielles, coupures nettes.
  • Cherchez la source originale: qui a filmé, quand, où? L’absence d’éléments vérifiables est un signal d’alarme.
  • Comparez avec des médias reconnus ou des témoins directs; utilisez la recherche d’images ou de clips inversée.

FAQ

Comment reconnaître rapidement une vidéo générée par IA ?

  • Regardez les zones complexes: dents, oreilles, doigts, bijoux, textes en arrière-plan.
  • Écoutez la voix: rythme trop régulier, absence d’ambiances réelles, transitions audio abruptes.
  • Vérifiez la provenance: un compte récent, sans historique, est suspect.

Que couvre réellement le programme SNAP ?

  • Il aide à acheter des aliments pour la maison (fruits, légumes, produits laitiers, céréales, viandes, etc.).
  • Il n’autorise pas l’achat d’alcool, de tabac, de produits non alimentaires, ni de repas chauds prêts à consommer.

Pourquoi ces faux contenus rencontrent-ils un tel succès ?

  • Parce qu’ils déclenchent des émotions fortes (colère, indignation), ce qui favorise le partage.
  • Les plateformes valorisent l’engagement, et le ragebait est performant, même s’il est trompeur.

Que faire si je tombe sur une fausse vidéo virale ?

  • Ne la partagez pas.
  • Signalez-la sur la plateforme.
  • Ajoutez du contexte fiable si vous réagissez (sources, vérifications).
  • Attendez des confirmations indépendantes avant d’en tirer des conclusions.

Comment les rédactions peuvent-elles éviter ce piège ?

  • Former les équipes à la vérification numérique (forensique visuel et audio).
  • Mettre en place des checklists de validation avant publication.
  • Corriger publiquement et rapidement en cas d’erreur, avec transparence sur l’origine des contenus.
Quitter la version mobile