Samedi soir, Donald Trump a publié sur Truth Social une vidéo manifestement créée par une IA, avant de la supprimer quelques heures plus tard. Une copie du message reste consultable via des archives en ligne. La séquence imitait un journal télévisé de Fox News et mettait en scène de faux avatars de Lara Trump et de Trump lui‑même, vantant une prétendue percée médicale baptisée « medbeds ».
Ce qui s’est passé
- Un faux reportage au style Fox News présentait une version générée par IA de Lara Trump affirmant que le président avait lancé un système de santé « historique » fondé sur des medbeds.
- La vidéo intégrait aussi un deepfake de Donald Trump, filmé comme s’il s’exprimait dans le Bureau ovale, promettant à « chaque Américain » une carte d’accès à ces nouveaux hôpitaux équipés de technologies « de pointe ».
- Le post a été supprimé rapidement, sans explication, ce qui a suscité de nombreuses questions sur la raison de sa publication et sur le fait que Trump ait ou non identifié la vidéo comme fausse.
Démentis et réactions
- Fox News a indiqué que ce segment n’avait jamais été diffusé sur ses antennes ni sur ses plateformes.
- Des observateurs des médias et des journalistes se sont demandé si Trump avait été trompé par la vidéo ou s’il avait volontairement relayé un contenu truqué. La suppression ultérieure a renforcé ces interrogations.
- Cet épisode s’ajoute à une série de publications douteuses déjà partagées par Trump: images de voitures inexistantes, autoportraits générés par IA, clips insolites sans vérification.
Le mythe des « medbeds »
- Les medbeds relèvent d’une théorie complotiste: elles seraient des lits « miracles » capables de soigner presque n’importe quoi.
- Cette croyance circule dans les sphères QAnon, où certains prétendent que l’État cacherait une technologie issue d’OVNI ou d’inventions « secrètes ». Des versions extrêmes évoquent même l’usage de tels dispositifs pour maintenir des personnalités historiques en vie — sans la moindre preuve.
- En réalité, il n’existe aucune démonstration scientifique de l’efficacité de ces lits magiques. Présenter ces promesses comme crédibles détourne les gens de soins réels et nourrit la désinformation médicale.
L’IA et la communication politique
- Les deepfakes sont désormais simples à produire et difficiles à repérer à l’œil nu. Quand des personnalités publiques les partagent sans disclaimer, la frontière entre le vrai et le faux s’efface.
- Pour un responsable politique, relayer des contenus fabriqués peut désorienter le public, amplifier la polarisation et miner la confiance dans les médias et les institutions.
- L’épisode du week‑end illustre la facilité avec laquelle des montages peuvent s’habiller des codes d’un grand média pour paraître crédibles.
Le contexte de la santé aux États‑Unis
- Les États‑Unis font face à des inégalités d’accès aux soins: coût de l’assurance, franchises élevées, renoncements aux traitements.
- Dans ce contexte, promettre des solutions « miracles » comme les medbeds peut sembler séduisant, mais c’est une impasse: on remplace des réformes concrètes par des chimères technologiques.
- Par ailleurs, des coupes budgétaires ont visé des programmes publics comme Medicare, rendant encore plus fragile la situation de millions de personnes âgées ou en situation de handicap.
- Sur les réseaux, certains ont ironisé: en vantant des medbeds « pour tous », Trump aurait, sans le vouloir, fait la promotion d’une couverture universelle… avant de revenir en arrière en supprimant le post.
Pourquoi c’est problématique
- Propager un deepfake médical crédible à première vue:
- brouille la compréhension du public,
- banalise la désinformation médicale,
- détourne l’attention de solutions réelles (extension de la couverture, prévention, transparence des prix),
- et fragilise encore la réalité partagée nécessaire à tout débat démocratique.
En bref
Un faux clip bien réalisé, un deepfake de dirigeants, un sujet aussi sensible que la santé: la combinaison est explosive. L’épisode rappelle l’urgence de vérifier les sources, d’exiger des clarifications quand une erreur circule, et de privilégier des politiques de santé vérifiables plutôt que des promesses spectaculaires mais imaginaires.
FAQ — À retenir
Comment reconnaître une vidéo générée par IA ?
- Incohérences visuelles (mains, regard, synchronisation des lèvres), sons légèrement métalliques, textes défilants trop génériques, logos approximatifs. Vérifiez la source originale, cherchez des communiqués ou démentis du média supposé, et comparez avec des archives.
Quelles sont les conséquences légales de partager un deepfake ?
- Selon les juridictions, diffuser un deepfake nuisible peut engager une responsabilité (atteinte à la réputation, fraude, manipulation électorale). De plus en plus d’États et de pays adoptent des lois encadrant ces usages, surtout en période électorale.
Que prétendent exactement les partisans des « medbeds » ?
- Ils avancent que ces lits pourraient régénérer les tissus, guérir des maladies graves et inverser le vieillissement. Aucune publication scientifique solide ne corrobore ces affirmations, et les autorités sanitaires n’ont validé aucun dispositif de ce type.
Comment vérifier qu’un post supprimé a vraiment existé ?
- Consultez des archives web, des captures d’écran horodatées et des bases de données de veille médias. Croisez plusieurs sources indépendantes pour éviter les montages.
Que peut faire le public face aux deepfakes politiques ?
- Adopter une hygiène informationnelle: vérifier la provenance, attendre un second recoupement, suivre des fact-checkers, et signaler les contenus suspectés d’être fabriqués.
