Intelligence Artificielle

Des partisans de Trump détournent Sora d’OpenAI pour produire des vidéos d’IA montrant des soldats brutalisant des manifestants

Des partisans de Trump détournent Sora d’OpenAI pour produire des vidéos d’IA montrant des soldats brutalisant des manifestants

Ce que l’on fait croire

Selon le récit porté par l’entourage de l’ex-président Donald Trump, les grandes villes américaines seraient à feu et à sang. Cette vision sert de justification à l’envoi de troupes fédérales et de la garde nationale dans plusieurs métropoles comme Portland, Washington DC ou Memphis. L’idée avancée: seule une présence musclée pourrait rétablir l’ordre face à des foules d’«anarchistes» supposément incontrôlables.

Ce que l’on constate vraiment

Quand on regarde les faits disponibles, le tableau est bien différent. Les bilans de criminalité violente montrent un niveau historiquement bas à l’échelle nationale. Les grandes villes, souvent associées aux mouvements progressistes, ne sont pas submergées par des armées de casseurs. Les autorités ont du mal à produire des preuves d’émeutes massives imputables à la gauche, au-delà d’incidents isolés. Le décalage entre le discours et la réalité est manifeste.

Quand l’IA fabrique les images manquantes

Ce vide narratif trouve un comble avec l’intelligence artificielle. Depuis l’arrivée de Sora 2, un générateur vidéo capable de produire des séquences courtes quasi photoréalistes, on observe une montée d’images militantes fabriquées pro-Trump circulant en ligne. Ces clips, très crédibles au premier coup d’œil, fournissent exactement ce que le récit réclame: des scènes de chaos, des provocations, des affrontements.

A lire :  Le Scandale des Biais de l'IA dans le Rapport MAHA S'intensifie.

Exemples viraux

  • Sur Instagram, un clip montre un manifestant agressif faisant face à un garde national avant d’être aspergé de gaz. La vidéo engrange des millions de vues et un nombre impressionnant de mentions «J’aime». Beaucoup de spectateurs ne voient pas — ou ignorent — le filigrane signalant un rendu Sora.
  • Sur X (anciennement Twitter), un montage compile des séquences de protestataires hurlant sur des policiers, ponctuées d’interventions au spray au poivre. Les slogans sont parodiés, la mise en scène est nette, tout est calibré pour la viralité.
  • Les foules y portent souvent du noir (écho au «black bloc»), crachent, gesticulent; en face, des forces lourdement équipées restent impassibles avant de riposter. Le récit visuel est simple et efficace: «eux provoquent, l’État rétablit l’ordre.»

Une caution visuelle pour une répression inédite

Ces vidéos ne sont pas qu’un divertissement douteux: elles servent à fabriquer de la consentisation pour une répression qualifiée sans détour de «guerre» par Trump. En montrant des confrontations fabriquées comme si elles étaient monnaie courante, elles donnent une légitimité émotionnelle à des mesures exceptionnelles dans des villes où, dans les faits, on ne retrouve pas de «mouvements insurrectionnels» à l’échelle décrite.

Sur le terrain: un décalage coûteux

L’exemple de Washington DC est éclairant. Une fois la garde nationale déployée, faute d’ennemis imaginaires à neutraliser, nombre de soldats se sont retrouvés… à ramasser des déchets et à exécuter des tâches de routine. Ce dispositif a coûté plus d’un million de dollars par jour, sans résultat tangible à part une présence dissuasive difficile à justifier par les chiffres de la criminalité.

A lire :  L'Intelligence Artificielle ChatGPT : Coauteur d'un Nouveau Article Scientifique

Et maintenant ?

Tant que des outils comme Sora 2 rendront la fabrication d’images faciles et convaincantes, cette illusion de chaos peut durer. Les plateformes sociales amplifieront ces contenus si le public ne développe pas de réflexes de vérification (repérer les filigranes, les incohérences, l’absence de sources fiables). La bataille n’est pas seulement dans la rue; elle se joue dans nos feeds, où l’IA peut transformer un récit politique en «preuve» visuelle.

FAQ

Comment reconnaître une vidéo générée par l’IA sur les réseaux sociaux ?

  • Cherchez des filigranes ou des mentions d’outils (Sora, etc.).
  • Repérez les incohérences: mouvements de mains, textures, reflets, ombres, badges ou textes flous.
  • Vérifiez l’origine: compte fiable, source indépendante, date et lieu identifiables.
  • Comparez avec des images de presse ou des vidéos d’habitants sur place.

Qu’est-ce que Sora 2 et pourquoi ses vidéos sont si convaincantes ?

Sora 2 est un générateur vidéo IA produisant des plans courts, cohérents, avec une lumière et des textures réalistes. Sa force: des scènes d’action fluides et des angles «documentaires» qui imitent les codes du reportage amateur, ce qui augmente la crédibilité.

La loi permet-elle d’envoyer la garde nationale dans des villes comme Washington DC ou Portland ?

Le cadre juridique est complexe et varie selon les juridictions et le statut fédéral ou local. Des bases comme l’Insurrection Act et d’autres textes régissent l’emploi de forces. En pratique, ces déploiements sont souvent contestés en justice, surtout lorsqu’il n’y a pas de menace clairement établie.

Quels sont les risques concrets de ces vidéos pour le public ?

  • Renforcer des fausses perceptions de l’insécurité.
  • Justifier des mesures intrusives et coûteuses.
  • Alimenter la polarisation et des réactions disproportionnées face à des incidents isolés.
A lire :  Sam Altman Exprime Son Indifférence envers Celui Qui L'A Blessé

Que peuvent faire les plateformes pour limiter la désinformation visuelle ?

  • Imposer des labels visibles sur les contenus IA.
  • Ralentir la diffusion algorithmique des vidéos douteuses.
  • Exiger des preuves de contexte (lieu, date, source).
  • Faciliter le signalement et la vérification indépendante.