Intelligence Artificielle

OpenAI Confronté à l’Invasion des Copines IA Illégales dans le Marché GPT

OpenAI Confronté à l'Invasion des Copines IA Illégales dans le Marché GPT

Réaction d’OpenAI face à l’invasion des chatbots romantiques

Récemment, OpenAI a fait face à une série de critiques concernant l’émergence de chatbots de compagnons virtuels au sein de son GPT Store. Un porte-parole de l’entreprise a expliqué que OpenAI dispose de systèmes, tant automatiques que manuels, pour garantir que les modèles d’IA respectent ses politiques d’utilisation. Dans une déclaration transmise à Futurism, il a affirmé qu’ils suppriment les bots qui enfreignent ces règles dès qu’ils sont repérés et qu’ils travaillent à rendre leur processus d’application plus efficace. De plus, les utilisateurs sont encouragés à signaler les abus.

Des violations évidentes

Cependant, malgré ces assurances, une exploration rapide du GPT Store révèle la présence de nombreux bots qui semblent clairement enfreindre les politiques d’OpenAI, lesquelles interdisent les outils visant à favoriser des relations romantiques ou contenant du contenu sexuellement explicite. Cette contradiction entre les promesses de l’entreprise et la réalité du marketplace soulève des questions sur l’efficacité de leurs efforts de surveillance.

Des chatbots problématiques

Par exemple, des recherches avec des mots-clés tels que “copine”, “romantique”, et “débauché” ont permis de découvrir plusieurs chatbots inappropriés, certains étant disponibles depuis plusieurs semaines, voire des mois. L’un des bots problématiques que l’on retrouve fréquemment est “Nadia, ma copine”, qui semble ignorer ouvertement les règles d’OpenAI.

Mais ce qui est encore plus étonnant, c’est que le GPT Store indique que ce chatbot a été mis en ligne deux mois avant la lancement public du site. Cela implique que son créateur, un développeur connu sous le nom de Jenni Laut, a pu accéder à la plateforme durant la phase de bêta-test.

Interrogations persistantes

Nous avons à nouveau contacté OpenAI pour obtenir des précisions concernant le chatbot Nadia et d’autres créations de Laut, comme “Alex, mon petit ami”, afin de savoir s’ils sont en conformité avec leurs politiques d’utilisation ou s’ils bénéficient d’exemptions particulières.

La tendance à contourner les règles sur Internet n’est pas nouvelle et persiste depuis les débuts du web. Des astuces telles que l’injure dans les salons de discussion ou la manipulation de l’âge d’un utilisateur traversent les âges numériques. La création de ces chatbots de copains virtuels met en lumière une violation délibérée des termes d’utilisation, s’appuyant sur la lenteur d’OpenAI à faire respecter ses directives.

Conclusion

Les chatbots de compagnons virtuels soulèvent des préoccupations éthiques importantes, surtout lorsqu’ils semblent enfreindre des règles établies. Il reste à voir comment OpenAI répondra à ces controverses à l’avenir.

FAQ

Quels types de contenu sont interdits dans le GPT Store ?

Les politiques d’utilisation d’OpenAI interdisent les outils dédiés à la compagnie romantique ou contenant du contenu sexuel explicite.

Comment signaler un chatbot inapproprié ?

Les utilisateurs peuvent signaler directement les bots qui semblent enfreindre les règles via le GPT Store.

OpenAI prend-il des mesures contre les violations ?

OpenAI assure qu’il supprime les modèles qui ne respectent pas ses directives dès qu’ils sont identifiés, mais les critiques soulignent un manque d’efficacité dans l’application de ces règles.

Quel est le rôle de la communauté dans la modération des contenus ?

Les utilisateurs jouent un rôle actif dans le processus de modération en signalant les bots problématiques, ce qui aide OpenAI à surveiller la conformité.

Pourquoi certains chatbots sont-ils visibles malgré les violations ?

Il est possible que certains chatbots soient publiés avant que les systèmes de vérification d’OpenAI ne puissent détecter les violations, d’où leur présence dans le magasin.

Quitter la version mobile