Intelligence Artificielle

Des internautes détournent Sora d’OpenAI pour se moquer des défunts

Des internautes détournent Sora d’OpenAI pour se moquer des défunts

En quelques jours à peine, l’application de génération de vidéos d’OpenAI, Sora 2, a été détournée pour produire une masse de contenus grossiers et malveillants. Des utilisateurs s’en servent pour fabriquer des images hyperréalistes qui tournent en dérision des personnalités décédées, brouillant la frontière entre fiction et réalité et alimentant un climat en ligne déjà saturé de contenus douteux. Des outils circulent en parallèle pour ôter les filigranes des vidéos, rendant l’origine artificielle encore plus difficile à déceler. Au milieu, les familles et ayants droit se retrouvent face à un vide juridique et à un interminable jeu du chat et de la souris.

Un raz-de-marée de vidéos problématiques

L’essor de Sora 2 a rapidement fait apparaître des vidéos inspirées d’œuvres protégées, du dessin animé à la série culte, en passant par des détournements outranciers. L’attrait de ces clips tient à leur vernis photoréaliste: sur un fil social, ceux-ci peuvent passer pour des documents authentiques, surtout lorsque les marquages d’origine sont supprimés. Ce mélange de facilité technique et d’absence de contexte crée un terrain propice aux manipulations et à la propagation d’images trompeuses.

Des exemples qui choquent

Stephen Hawking

Des montages mettent en scène le célèbre physicien Stephen Hawking, disparu en 2018, humilié ou violenté par des combattants. Au-delà du mauvais goût, ce type de vidéo banalise l’agression et instrumentalise une figure scientifique respectée pour un spectacle cruel.

Elvis Presley

D’autres clips s’acharnent sur Elvis Presley (mort en 1977), en le montrant chancelant, ridiculisé, ou victime d’accidents scéniques. Ces scénarios recyclent et exacerbent les images de ses derniers instants sur scène pour en faire un gag aux dépens de sa mémoire.

Mister Rogers

Le présentateur Fred “Mister Rogers” Rogers (mort en 2003) est dépeint en animateur furieux et grossier, à rebours de sa réputation de calme bienveillant. Ces scènes, pensées pour choquer, exploitent le contraste entre l’icône et sa caricature, au service d’un buzz facile.

Albert Einstein

Une vidéo met Albert Einstein (mort en 1955) en train de commenter ironiquement un sac de créateur, comme s’il donnait une leçon de sociologie de la consommation. Ce type de pastiche, plausible au premier coup d’œil, parasite la perception historique du personnage.

Steve Irwin

Le Crocodile Hunter australien Steve Irwin (mort en 2006) est mimé en train de “maîtriser” des passants, transposant ses gestes de dresseur de faune sauvage à la voie publique. L’effet comique recherché repose sur une déformation de son travail réel et de sa personnalité publique.

Une technologie qui brouille les repères

Grâce à la qualité des rendus et à la suppression des filigranes, ces vidéos peuvent circuler sans signalement clair de leur nature artificielle. Le risque est double:

  • détérioration de la mémoire de personnalités publiques disparues;
  • confusion du public, qui peut prendre ces fabrications pour des faits historiques.

La réponse d’OpenAI, entre promesses et angles morts

Dans sa communication, OpenAI promet de bloquer la représentation de certaines figures publiques. Dans le même temps, l’entreprise admet autoriser la génération de figures historiques, une catégorie qui inclut… bon nombre de célébrités décédées. La société invite les ayants droit à demander explicitement la non-utilisation d’une image dans Sora, posture qui rappelle les démarches d’“opt-out” en matière de droits d’auteur — avant un revirement partiel. OpenAI met aussi en avant une option “cameos” où des personnes vivantes “optent pour” l’utilisation de leur voix et de leur visage; mais cela n’empêche ni la création non sollicitée de contenus sur des personnes décédées, ni la diffusion de contenus potentiellement illicites.

Un casse-tête juridique et éthique

Les représentants de patrimoines artistiques et de familles se heurtent à une zone grise: le droit existant, conçu pour un monde plus lent et plus centralisé, peine à suivre la vitesse de reproduction et de dispersion des deepfakes. Les actions en justice, longues et coûteuses, peinent à enrayer un phénomène où chaque retrait est suivi de nouveaux miroirs et rechargements. Dans l’intervalle, ces usages aggravent la défiance entre Hollywood et l’industrie de l’IA, déjà en tension sur les questions de droits et de contrôle des likeness.

Les proches des disparus en première ligne

Des membres de familles de célébrités ont pris la parole pour demander une trêve: cesser l’envoi et le partage de ces vidéos qui ravivent la douleur et banalisent l’irrespect. Le message est simple: ces contenus ne sont ni des hommages, ni des jeux innocents. Ils blessent et propagent une image fausse du défunt.

Et maintenant?

Réduire la nocivité de ces vidéos exigerait:

  • des barrières techniques (détections plus fiables, filigranes robustes et persistants);
  • des garde-fous par défaut sur les personnalités décédées;
  • une modération proactive et des voies rapides de retrait pour les ayants droit;
  • des standards communs entre plateformes pour empêcher la réapparition sans fin des mêmes contenus.

Ces mesures n’effaceront pas le problème, mais elles peuvent limiter l’ampleur du phénomène et responsabiliser l’écosystème.

FAQ

Comment reconnaître rapidement une vidéo issue d’une IA comme Sora 2 ?

  • Recherchez des signes visuels subtils: mouvements de doigts incohérents, textures qui “ondulent”, ombres ou reflets illogiques.
  • Écoutez le son: voix trop lisses, respirations artificielles, synchronisation lèvres/voix imparfaite.
  • Vérifiez la source: compte d’origine, date de publication, cohérence avec des archives fiables. En cas de doute, utilisez des outils de vérification inversée et des détecteurs d’IA.

Quels types de protections pourraient mieux encadrer les personnes décédées ?

  • Un “blocage par défaut” des likeness de personnalités décédées, levé uniquement sur autorisation de l’ayant droit.
  • Des filigranes inaltérables intégrés au flux vidéo (invisibles mais persistants).
  • Des accords de filière entre studios, plateformes et entreprises d’IA pour des listes blanches et noires partagées.

Que peuvent faire les utilisateurs pour limiter la propagation de ces contenus ?

  • Ne pas partager une vidéo douteuse, même pour la dénoncer.
  • Signaler aux plateformes les contenus qui exploitent l’image de personnes décédées.
  • Sensibiliser son entourage aux risques de désinformation liée aux deepfakes.

Les deepfakes sont-ils toujours illégaux ?

  • Non. Le cadre varie selon les pays et le contexte: satire, parodie, usage éducatif ou œuvre de fiction peuvent être légaux. En revanche, l’atteinte à la réputation, l’usurpation d’identité ou l’exploitation commerciale sans autorisation peuvent entraîner des sanctions.

Sora 2 peut-il servir de manière positive malgré ces dérives ?

  • Oui. Prototypage créatif, prévisualisation de scènes, éducation à l’image, accessibilité pour de petits créateurs: les usages vertueux existent. Ils supposent toutefois des règles claires, la transparence sur l’usage de l’IA et le respect des personnes et des droits.
Quitter la version mobile