Les Alerte sur les Pratiques d’OpenAI
Un ancien chercheur d’OpenAI a décidé de tirer la sonnette d’alarme concernant les pratiques de formation en intelligence artificielle de l’entreprise. Il accuse OpenAI d’avoir violé la loi sur le droit d’auteur pour entraîner ses modèles d’IA et souligne que son modèle commercial actuel pourrait perturber profondément l’écosystème numérique tel que nous le connaissons. Ces révélations sont rapportées par le New York Times.
Le Témoignage de Suchir Balaji
Suchir Balaji, un jeune homme de 25 ans, a travaillé chez OpenAI pendant quatre ans avant de quitter l’entreprise, en raison de préoccupations éthiques. Selon Balaji, la forte commercialisation des produits comme ChatGPT rend l’utilisation de contenu en ligne dans le cadre de la doctrine de l’usage équitable problématique. OpenAI, qui fait face à plusieurs poursuites pour violation des droits d’auteur, y compris une affaire très médiatisée intentée par le New York Times, soutient le contraire.
Balaji a déclaré au NYT : « Si vous partagez mes convictions, il est nécessaire de quitter la société. »
Les Enjeux du Collecte de Données
Les avertissements de Balaji, qu’il a présentés sur son site web personnel, ajoutent à la controverse grandissante autour de la collecte et de l’utilisation de matériel protégé par des droits d’auteur pour former des modèles d’IA. Cette collecte a souvent eu lieu sans régulation gouvernementale adéquate et dans l’ombre.
Bradley Hulbert, un avocat spécialisé en propriété intellectuelle, a affirmé qu’il est temps pour le Congrès d’intervenir, compte tenu de l’évolution rapide de l’IA.
Les Changements après le Lancement de ChatGPT
Employé en 2020, Balaji était responsable de la collecte de données sur le web pour alimenter les modèles linguistiques d’OpenAI. À cette époque, l’entreprise était perçue comme une simple société de recherche bien financée, ce qui faisait que les questions de droit d’auteur n’étaient pas prioritaires.
« Lors d’un projet de recherche, il est généralement possible d’utiliser n’importe quelle donnée », a-t-il précisé. Cependant, après le lancement de ChatGPT en novembre 2022, Balaji a vu les choses différemment. En effet, le chatbot, conçu pour un usage commercial, menace désormais les revenus et les modèles économiques des individus et des entreprises dont il emprunte le contenu.
Il a résumé sa position en disant : « Ce n’est pas un modèle durable pour l’écosystème internet. »
En réponse, OpenAI a déclaré au NYT qu’elle utilise des données publiquement disponibles pour créer ses modèles d’IA, tout en respectant les principes d’usage équitable, ce qui est essentiel selon eux pour la compétitivité des États-Unis.
Conclusion
Les révélations d’ex-employés comme Balaji soulèvent des questions cruciales sur l’avenir de l’IA et son impact potentiel sur l’économie numérique. Alors que la situation évolue, il sera intéressant de suivre les réactions des organismes de régulation et de la communauté technologique.
FAQ
Quelles sont les accusations précises portées contre OpenAI ?
Balaji accuse OpenAI d’utiliser massivement des matériaux protégés par des droits d’auteur pour entraîner ses modèles d’IA, sans respecter le cadre légal de l’usage équitable.
Quels impacts cela pourrait-il avoir sur l’industrie ?
Le modèle commercial d’OpenAI pourrait affecter les revenus de nombreux créateurs de contenu, menant à une éventuelle redéfinition des normes de l’industrie numérique.
Quel est le contexte actuel concernant la régulation de l’IA ?
La collecte de données par les entreprises d’IA se fait en grande partie sans des réglementations strictes, ce qui rend la nécessité d’intervention législative d’autant plus pressante.
Quelles poursuites OpenAI affronte-t-elle ?
OpenAI fait face à plusieurs actions en justice, y compris une affaire célèbre contre le New York Times concernant la violation des droits d’auteur dans l’entraînement de ses modèles.
Pourquoi Balaji a-t-il décidé de quitter OpenAI ?
Il a quitté OpenAI principalement pour des raisons éthiques, estimant que la direction actuelle de l’entreprise ne correspondait plus à ses valeurs personnelles.
