Intelligence Artificielle

Un Responsable de Stability AI Démissionne en Désaccord avec l’Utilisation d’Œuvres Protégées pour Entraîner l’IA

Un Responsable de Stability AI Démissionne en Désaccord avec l'Utilisation d'Œuvres Protégées pour Entraîner l'IA

Départ de Stability AI : Un Acte de Principes

Un dirigeant de l’entreprise d’intelligence artificielle Stability AI, connue pour son générateur d’images Stable Diffusion, a récemment décidé de quitter son poste pour des raisons de principes. Dans un éditorial, il a partagé les raisons de sa démission, révélant un désaccord fondamental avec la position de l’entreprise sur l’utilisation de contenus protégés par le droit d’auteur.

Un Désaccord Profond

Ed Newton-Rex, qui occupait le poste de vice-président audio chez Stability AI, a expliqué qu’après une période enrichissante au sein de l’entreprise, il ne pouvait plus ignorer des divergences d’opinion majeures. Dans un article publié sur Music Business Worldwide, il a révélé ses préoccupations concernant la manière dont l’entreprise considère l’entraînement des modèles d’IA générative sur des œuvres protégées. Selon lui, affirmer que cela constitue un “usage équitable” est tout simplement incorrect.

Une Perspective d’Expert

Contrairement à certains critiques de l’IA qui rejettent totalement cette technologie, Newton-Rex aborde la question en tant que professionnel du secteur. Avec une expérience significative et en tant que créateur du logiciel de composition musicale Jukedeck AI en 2012, il a été l’un des pionniers de l’IA générative. Jukedeck, qui a été vendu à TikTok, utilisait exclusivement de la musique libre de droits. Ce contexte met en lumière son opposition à la façon dont sa dernière entreprise exploite le travail des artistes.

A lire :  Google Présente Gemini 3.1 Pro : Une Révolution dans la Résolution de Problèmes Complexes

Problèmes Éthiques dans l’Industrie

Depuis peu, Stability AI fait face à de nombreux problèmes liés à des enjeux de financement et des difficultés d’attraction des talents. L’entreprise soutient que toute œuvre protégée est “usage équitable”, lui permettant d’utiliser sans autorisation les créations des artistes pour former ses modèles d’IA. Cette conception dérange profondément Newton-Rex, un artiste lui-même, qui souligne que ces pratiques sont problématiques dans une économie où les créateurs s’appuient sur le droit d’auteur.

Il déclare : “Des entreprises valant des milliards de dollars forment des modèles d’IA générative sur les œuvres des créateurs, sans autorisation, ce qui conduit à la création de nouveaux contenus pouvant concurrencer les œuvres originales.” Pour lui, c’est inacceptable dans une société où les droits des créateurs devraient être respectés.

La Nature de l’Usage Équitable

Newton-Rex se concentre moins sur la technologie elle-même que sur la manière dont certaines entreprises manipulent la notion d’usage équitable. Il souligne que ce concept n’a pas été conçu pour s’appliquer à l’IA générative de la façon dont il est actuellement interprété. “Je suis convaincu que je ne suis pas le seul au sein de ces entreprises à penser que cette revendication d’usage équitable n’est pas juste pour les créateurs,” écrit-il. Il appelle à une prise de conscience collective, tant en interne qu’en public, pour faire comprendre que tirer profit du travail des créateurs ne peut pas être une solution durable pour l’intelligence artificielle générative.

FAQ

Qu’est-ce que l’usage équitable ?

L’usage équitable est un principe juridique qui permet l’utilisation limitée de matériel protégé par des droits d’auteur sans autorisation préalable, mais il a des limites et des conditions spécifiques.

A lire :  Sam Altman à la recherche de milliards pour sa nouvelle aventure en IA.

Quelle est la position de Stability AI sur l’utilisation des œuvres protégées ?

Stability AI considère que l’utilisation des œuvres protégées pour former ses modèles d’IA constitue un usage équitable, ce qui est contesté par certains, comme Ed Newton-Rex.

Pourquoi Ed Newton-Rex a-t-il quitté Stability AI ?

Il a quitté Stability AI en raison de désaccords fondamentaux concernant l’éthique d’utilisation des œuvres protégées dans la formation des modèles d’IA.

Quel impact peuvent avoir de telles démissions sur l’industrie de l’IA ?

Ces départs peuvent susciter des débats sur la nécessité de respecter les droits d’auteur et de revoir les pratiques actuelles au sein de l’industrie de l’IA.

Quelles sont les alternatives à l’utilisation des œuvres protégées par des droits d’auteur dans l’IA générative ?

Les alternatives incluent l’utilisation de musique libre de droits, d’œuvres du domaine public ou la création de contenu original par les utilisateurs eux-mêmes.