Intelligence Artificielle

Après le tollé, OpenAI bannit les deepfakes de Martin Luther King

Après le tollé, OpenAI bannit les deepfakes de Martin Luther King

Sora 2, entre fascination et dérapages

Le lancement de Sora 2, l’outil de génération de vidéos d’OpenAI, a très vite dérapé. En quelques jours, la plateforme s’est retrouvée envahie de clips grossiers mettant en scène des personnalités décédées. Ces montages, souvent moqueurs ou humiliants, ont choqué le public et pris l’entreprise de court. L’outil a ainsi été détourné pour produire des vidéos qui tournent en dérision l’héritage de figures majeures, relançant un débat brûlant sur le respect post-mortem, le consentement et l’usage de l’IA générative.

Des détournements qui franchissent la ligne rouge

  • Des vidéos ont circulé montrant des célébrités disparues dans des situations violentes, ridicules ou vulgaires.
  • Parmi les cibles les plus visibles, une grande icône des droits civiques a été utilisée à répétition, y compris dans des parodies de discours célèbres et des scènes explicitement irrespectueuses.
  • La logique est simple et problématique: les personnes concernées ne peuvent ni donner leur consentement, ni défendre leur image, et leurs proches se retrouvent à porter seuls le poids de ces atteintes.
A lire :  L'IA qui Crée de la Musique à partir de Commandes : Une Menace pour les Musiciens ?

Au-delà du choc immédiat, ces usages soulèvent une question de fond: que signifie “créativité” quand elle s’exerce au détriment de la dignité et du souvenir de personnes qui ne peuvent plus répondre?

Réaction d’OpenAI: pause ciblée et promesse de garde-fous

Face à l’indignation des familles — notamment celle de la famille du leader assassiné en 1968 — OpenAI a annoncé une pause des générations de vidéos le représentant et la mise en place de garde-fous renforcés pour les figures historiques. L’entreprise explique vouloir mieux encadrer ces usages, tout en reconnaissant l’enjeu de la liberté d’expression.

Ce revirement n’est pas venu de nulle part: des proches ont publiquement demandé l’arrêt de ces vidéos, pressant l’entreprise d’agir. Cette séquence laisse l’impression que la modération se déclenche surtout lorsque la controverse éclabousse la marque.

Un cadre de modération en mouvement

Au départ, la documentation de sécurité d’OpenAI évoquait un blocage des figures publiques — mais avec une exception implicite pour les personnalités décédées. Résultat: un angle mort qui a servi de tremplin à la viralité de contenus malveillants.

Sous la pression, la position a évolué:

  • OpenAI affirme désormais que les personnes publiques et leurs familles devraient pouvoir contrôler l’usage de leur ressemblance.
  • Les ayants droit et représentants autorisés peuvent demander que leur image ne soit pas utilisée dans des “caméos” générés par Sora.
  • Ce modèle ressemble à un opt-out organisé au cas par cas, ce qui a suscité de nouvelles critiques: beaucoup estiment qu’un opt-in — donc un consentement préalable — serait plus approprié.

Cette tension entre modèle par défaut (“inclus sauf refus explicite”) et modèle par consentement (“exclus jusqu’à accord explicite”) cristallise le débat sur l’éthique et la responsabilité dans l’IA.

A lire :  Google Annonce la Suppression Automatique des Visites aux Cliniques d'Avortement dans l'Historique des Utilisateurs

Pourquoi c’est important

  • Respect et mémoire: manipuler l’image de personnes disparues pour en faire un spectacle nuit à la dignité et blesse les proches.
  • Droits et consentement: le droit à l’image, le droit moral et la question du consentement post-mortem varient selon les pays, mais le principe de base reste le même: sans accord, le risque d’atteinte est élevé.
  • Confiance dans l’IA: tolérer des usages douteux mine la crédibilité des outils et fragilise l’adoption par le grand public et les créateurs sérieux.
  • Risque réputationnel: chaque scandale pousse les plateformes à réagir dans l’urgence, au lieu de déployer dès le départ des protections proactives.

Et maintenant?

OpenAI annonce un renforcement des garde-fous pour les figures historiques et ouvre une voie de retrait sur demande pour les familles et ayants droit. Reste à voir:

  • comment seront vérifiés les représentants autorisés;
  • si le blocage restera ponctuel ou deviendra une règle générale pour les personnalités décédées;
  • si l’entreprise passera un jour à un modèle opt-in pour les identités sensibles.

Au-delà du cas présent, une évolution plus large s’impose: outils de détection, filtres proactifs, règles claires de consentement, et culture du respect dans la création assistée par IA.

Bonnes pratiques pour les créateurs

  • Privilégier des contenus où toutes les personnes représentées peuvent donner un accord explicite.
  • Éviter les sujets qui exploitent la vulnérabilité des personnes décédées et l’émotion des proches.
  • Signaler clairement lorsqu’un contenu est généré par IA.
  • Respecter les demandes de retrait et les décisions des ayants droit.

En bref

Sora 2 a révélé un angle mort: l’exploitation de l’image des personnalités décédées pour divertir. Sous la pression des familles, OpenAI promet de resserrer la vis et d’offrir davantage de contrôle aux ayants droit. Le débat reste entier: comment concilier créativité, liberté d’expression et respect des personnes quand les images sont si faciles à fabriquer?

A lire :  Les sondeurs politiques optimisent leurs coûts en utilisant l'IA plutôt que de véritables personnes, avec des résultats prévisibles.

FAQ

Comment une famille peut-elle demander le retrait d’une vidéo générée par IA?

Généralement, il faut contacter le service dédié de la plateforme, fournir une preuve de représentation légale (ayant droit, exécuteur testamentaire, fondation) et préciser les contenus à retirer. Attendez-vous à une vérification d’identité et à un échange écrit formalisant la demande.

Quelles protections techniques peuvent limiter ces abus?

Les plateformes peuvent combiner filtres de prompt, listes d’identités protégées, watermarking des sorties, détection d’impersonation et systèmes de revue humaine en cas de signaux de risque. Aucune méthode n’est parfaite; la combinaison et l’itération comptent.

Quels sont les risques juridiques pour les auteurs de ces vidéos?

Selon la juridiction: atteinte au droit à l’image, diffamation, atteinte au droit moral des auteurs ou de leurs héritiers, et parfois violation de marques. Les conséquences vont du retrait à des sanctions civiles.

Comment reconnaître une vidéo probablement artificielle?

Cherchez des incohérences visuelles ou sonores: gestuelle raide, éclairage instable, synchronisation labiale imparfaite, artefacts sur les mains et textiles, ou un contexte invraisemblable. Vérifiez aussi la source et la traçabilité.

Quelles règles éthiques simples adopter en tant que créateur?

  • Obtenir le consentement quand c’est possible.
  • Éviter les contenus dégradants pour des personnes réelles, surtout décédées.
  • Préférer des personnages fictionnels ou des identités librement utilisables.
  • Être transparent sur l’usage de l’IA et accepter les demandes de retrait.