Intelligence Artificielle

Les Deepfakes d’Intelligence Artificielle des Médecins Inondent les Réseaux Sociaux de Désinformation Sanitaire

Les Deepfakes d'Intelligence Artificielle des Médecins Inondent les Réseaux Sociaux de Désinformation Sanitaire
Le contenu et les recommandations de produits d’ADGO.ca sont éditorialement indépendants. Nous pouvons générer des revenus lorsque vous cliquez sur les liens de nos partenaires.
Apprendre encore plus

Des vidéos trompeuses sur la santé

Une nouvelle tendance des réseaux sociaux, notamment sur TikTok, met en avant des vidéos générées par IA qui utilisent des visages et des voix de médecins réels pour promouvoir des suppléments et diffuser des informations erronées sur la santé. Ces vidéos, qui modifient les apparences et les paroles de professionnels de la santé, soulèvent des questions critiques concernant leur impact sur la santé publique.

Un rapport alarmant

Le journal The Guardian a rapporté qu’une enquête menée par l’organisation de vérification des faits Full Fact a révélé des centaines de ces vidéos trompeuses. Ces vidéos mettent en avant des recommandations douteuses, particulièrement dirigées vers les femmes en période de ménopause, les incitant à acheter des produits comme des probiotiques ou du shilajit provenant d’une entreprise américaine, Wellness Nest.

Comment fonctionnent ces vidéos trompeuses ?

Full Fact a découvert que ces vidéos utilisent des séquences authentiques de médecins ou d’influenceurs, mais celles-ci sont manipulées grâce à l’IA. Par exemple, les faux contenus suggèrent des traitements non éprouvés, profitant de la notoriété des professionnels de santé. L’enquête dirigée par le journaliste Leo Benedictus a qualifié cette stratégie de « sinistre » et « préoccupante ». Selon lui, la création d’une illusion de soutien par des figures reconnues pour ces produits peut conduire à des abus de consommation liés à la santé.

Des médecins réels, des affirmations fausses

Un des exemples les plus frappants est l’utilisation de Prof David Taylor-Robinson, expert en inégalités de santé à l’Université de Liverpool. En août, il a découvert que TikTok diffusait des vidéos basées sur une version truquée de lui-même qui affirmait des choses ridicules concernant la ménopause, comme un prétendu effet secondaire appelé « jambe thermomètre ».

Une séquence largement partagée montrait sa version synthétique conseillant l’achat d’un probiotique naturel sur le site de Wellness Nest, incluant des ingrédients “scientifiquement prouvés”. Taylor-Robinson a appris l’existence de ces manipulations grâce à un collègue. Il a bien noté que ces vidéos, tirées d’une conférence de Public Health England sur la vaccination, le laissaient perplexe. Bien qu’il ne se sente pas directement lésé, il était agacé par l’idée que ses travaux soient utilisés pour vendre des produits sans son consentement.

La réponse de TikTok

Après une plainte, TikTok a retiré les vidéos six semaines plus tard, vérifiant qu’elles enfreignaient certaines règles, tandis que d’autres ont été jugées acceptables. Taylor-Robinson a décrit le processus de signalement comme compliqué, mettant en lumière les difficultés rencontrées par les plateformes pour détecter des motifs de fraude cohérents.

D’autres figures ciblées

L’enquête a également mis en lumière huit vidéos profondes imitant Duncan Selbie, ancien directeur général de Public Health England. Comme pour Taylor-Robinson, il a été mis en scène de manière frauduleuse évoquant la ménopause à partir des mêmes événements. Selbie a noté qu’un extrait sur le « jambe thermomètre » était « une imitation incroyable », révélant la capacité de l’IA à reproduire avec précision l’apparence d’un individu.

D’autres contenus de ce type circulent aussi sur X, Facebook et YouTube, souvent en lien avec Wellness Nest. Des figures reconnues telles que Prof Tim Spector et le regretté Dr Michael Mosley ont également été ciblées.

Wellness Nest a déclaré à Full Fact que ces vidéos étaient « 100% indépendantes » de la société et qu’elle n’avait jamais utilisé de contenu généré par IA. Cela pose la question de la responsabilité des sociétés face à des pratiques promotionnelles trompeuses.

Implications pour la santé publique

La prolifération des recommandations médicales basées sur des deepfakes a de grandes répercussions sur la santé publique. Des spécialistes mettent en garde contre les témoignages synthétiques provenant de figures fiables, qui pourraient fausser les décisions en matière de soins de santé et inciter les consommateurs à se tourner vers des produits non réglementés. Étant donné que la ménopause est déjà entourée d’une désinformation abondante, ces nouvelles affirmations risquent d’augmenter la confusion chez celles et ceux qui cherchent de l’aide.

Des politiciens ont appelé à un renforcement de la régulation. Helen Morgan, porte-parole en santé des Liberal Democrats, a exposé que ces pratiques étaient la preuve que « l’IA est utilisée pour tirer profit des personnes vulnérables, exploitant les failles croissantes de notre système de santé ». Elle a plaidé pour des mesures strictes afin d’éliminer les deepfakes se faisant passer pour des professionnels médicaux, et a proposé un renvoi automatique vers des ressources de santé lorsque les utilisateurs cherchent des conseils de santé via des outils d’IA.

Réactions des plateformes

Un porte-parole de TikTok a confirmé le retrait des contenus impliquant Taylor-Robinson et Selbie pour avoir enfreint des règles contre la désinformation nuisible. Ils ont reconnu que la production de contenu IA trompeur constitue un défi pour l’ensemble de l’industrie et ont indiqué que TikTok investissait dans des systèmes de détection améliorés.

Les résultats de l’enquête de Full Fact indiquent que la manipulation par deepfake passe rapidement de l’ingérence politique à l’exploitation commerciale, et les réseaux sociaux ont encore du mal à maîtriser cette situation.

Dans d’autres nouvelles, l’investissement global dans les infrastructures d’intelligence artificielle continue de croître, et cela ne montre aucun signe d’essoufflement, selon Ben Powell de BlackRock.

FAQ

Qu’est-ce qu’un deepfake ?

Un deepfake est une technologie qui utilise l’intelligence artificielle pour créer des vidéos ou des audios falsifiés qui imitent des personnes réelles.

Comment identifier un deepfake ?

Rechercher des incohérences visuelles, des mouvements de lèvres désynchronisés ou une qualité audio suspecte peut aider à repérer un deepfake.

Quel est l’impact des deepfakes sur la santé ?

Les deepfakes peuvent diffusent de fausses informations sur la santé, induisant en erreur le public et l’encourageant à acheter des produits non réglementés.

Que peuvent faire les gouvernements ?

Les gouvernements peuvent renforcer les règlements sur la désinformation et imposer des sanctions pour les pratiques trompeuses liées à la santé.

Quels recours ont les personnes mises en cause dans des deepfakes ?

Les individus peuvent signaler ces contenus aux plateformes et, dans certains cas, demander une action légale pour protéger leur image et réputation.

Quitter la version mobile