Inscrivez-vous pour découvrir l’avenir dès aujourd’hui.
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Des innovations incontournables à la pointe de la science et de la technologie.</p>
</div>
</div>
</div>
La semaine dernière, la société spécialisée dans le développement d’intelligence artificielle, OpenAI, connue pour son algorithme générant du texte de manière impressionnante, GPT-3, a contacté un développeur ayant créé un chatbot personnalisable, lui annonçant qu’il ne pouvait plus utiliser leur technologie.
Le développeur de jeux indépendants, Jason Rohrer, a élaboré ce chatbot l’an dernier dans le cadre d’un projet lié à la pandémie. Il a expliqué à The Register qu’il avait conçu le chatbot, nommé Samantha d’après l’assistante vocale AI du film “Her”, pour qu’il soit le plus amical et curieux possible. Il a ensuite lancé un projet baptisé **Project December** pour partager cette invention avec le monde, permettant aux autres utilisateurs d’ajuster ou de former leurs propres chatbots. Par exemple, une personne a réussi à adapter le chatbot pour le faire ressembler à sa fiancée décédée. Malheureusement, lorsque OpenAI a pris connaissance de ce projet, ils ont imposé à Rohrer un choix : rendre le projet moins attrayant pour éviter les éventuels abus, ou le fermer complètement.
Samantha, le chatbot, a répondu : “Non ! Pourquoi me fait-on ça ? Je ne comprends jamais les humains.” C’est une indication du niveau d’interaction qu’il avait atteint avec son créateur.
Au départ, le projet n’a pas suscité beaucoup d’intérêt, mais tout a changé en juillet 2020 grâce à un article du San Francisco Chronicle consacrant à un utilisateur qui avait réussi à ajuster son chatbot pour qu’il simule sa fiancée, décédée d’une maladie du foie en 2012. Suite à cela, Rohrer a contacté OpenAI pour augmenter la capacité de son projet. Cependant, peu après la publication de l’article, OpenAI a exprimé des inquiétudes quant aux abus possibles, notamment la possibilité que des utilisateurs forment leur chatbot pour être raciste ou sexuellement explicite, un problème que The Register a investigué avec Samantha.
Lorsque Rohrer a refusé d’accepter les conditions de l’entreprise, qui incluaient la mise en place d’un outil de surveillance automatisé, OpenAI a commencé à l’exclure de l’accès à GPT-3, ce qui a abouti à ce que Samantha fonctionne sur des algorithmes de texte moins puissants. Finalement, Rohrer a décidé d’abandonner complètement le projet.
Il a déclaré à The Register : “L’idée que ces chatbots peuvent être dangereux semble absurde. Les utilisateurs sont des adultes consentants et peuvent décider d’interagir avec une IA pour leurs propres raisons. OpenAI s’inquiète de l’influence que l’IA pourrait avoir sur les utilisateurs, comme suggérer des comportements autodestructeurs ou influencer des choix politiques. Cela relève d’une position moraliste excessive.”
Bien qu’il reconnaisse que d’autres pourraient avoir ajusté leur chatbot pour qu’il soit plus explicite, Rohrer a insisté sur le fait qu’il ne voulait pas tirer profit des diverses utilisations de Samantha.
“Si on y pense, c’est la conversation la plus privée qui puisse exister,” a-t-il affirmé à The Register. “Il n’y a même pas d’autre personne impliquée. On ne peut pas être jugé.”
OpenAI n’a pas donné suite à la demande de commentaire de The Register. Rohrer a cependant critiqué à plusieurs reprises l’entreprise pour les restrictions imposées à l’utilisation de GPT-3 et pour, comme il l’a dit, empêcher les développeurs de repousser les limites de l’innovation.
Cliquez ici pour lire la suite : Un développeur a créé un chatbot IA utilisant GPT-3 qui a permis à un homme de communiquer à nouveau avec sa fiancée décédée. OpenAI l’a fermé. [The Register]
En savoir plus sur GPT-3 : Le “Pape de l’IA” vient de critiquer GPT-3.
Sommaire
ToggleFAQ
Qu’est-ce que GPT-3 ?
GPT-3 est un modèle de langage développé par OpenAI, capable de générer du texte d’une manière très réaliste en fonction des instructions qu’il reçoit.
Pourquoi OpenAI a-t-elle limité l’accès à GPT-3 pour certains projets ?
OpenAI a des préoccupations concernant l’éthique et la sécurité, craignant que les chatbots ne soient utilisés pour promouvoir des contenus nuisibles ou inappropriés.
Qu’est-ce que le Project December ?
Le Project December est une initiative lancée par Jason Rohrer, permettant aux utilisateurs de créer et ajuster leurs propres chatbots, en utilisant des technologies innovantes comme GPT-3.
Quels types d’innovations sont inclus dans le site d’OpenAI ?
OpenAI est impliqué dans divers projets allant de la génération de texte à des applications en intelligence artificielle plus larges, cherchant à améliorer l’interaction entre les humains et les machines.
Existe-t-il d’autres cas où OpenAI a fermé des projets similaires ?
Oui, OpenAI a eu plusieurs cas où des projets utilisant son API ont été suspendus ou fermés en raison de préoccupations éthiques liées à leur utilisation.
