Intelligence Artificielle

OpenAI Développe un Logiciel de Détection d’Écriture IA avec une Précision de 99,9 % mais Ne Souhaite Pas le Diffuser.

OpenAI Développe un Logiciel de Détection d'Écriture IA avec une Précision de 99,9 % mais Ne Souhaite Pas le Diffuser.

Filigrane pour le contenu généré par l’IA

Le créateur de ChatGPT, OpenAI, a conçu des outils internes capables de marquer et de suivre le contenu créé par l’IA avec une précision de 99,9 %. Cependant, selon le Wall Street Journal, l’entreprise refuse de rendre ces outils disponibles au public.

Ces outils seraient très utiles dans plusieurs contextes, que ce soit pour lutter contre la tricherie des étudiants ou pour trier le contenu généré par l’IA qui inonde Internet. Il est donc étonnant qu’OpenAI conserve ces outils qui pourraient aider à identifier précisément ce type de contenu.

Une source proche du projet a déclaré au WSJ que “il suffit d’appuyer sur un bouton” pour faire fonctionner ces outils.

Détecteur de bots

Le Wall Street Journal a rapporté qu’OpenAI a commencé à évoquer la nécessité d’un outil de filtrage efficace dès le lancement de ChatGPT en 2022. Peu après, le logiciel a été créé et, d’après des documents internes, il peut fonctionner avec une précision de 99,9 % sur un volume suffisant de textes générés par ChatGPT.

Cependant, OpenAI hésite à le rendre public.

En avril 2023, une enquête mondiale menée par OpenAI a montré un soutien massif du public pour la mise en œuvre de ces outils de marquage. Paradoxalement, une autre étude, réalisée le même mois auprès des utilisateurs d’OpenAI, a révélé que 30 % d’entre eux cesseraient d’utiliser ChatGPT si des filigranes étaient intégrés, surtout si un concurrent ne le faisait pas. Comme le souligne le WSJ, ce résultat a influencé les discussions concernant l’implémentation de l’outil de marquage.

Un porte-parole d’OpenAI a indiqué que cette prudence vient d’une approche réfléchie. Selon lui, « la méthode de filigrane que nous développons présente des promesses techniques, mais elle entraîne des risques que nous évaluons tout en cherchant des alternatives ».

Après la publication des résultats par le WSJ, TechCrunch a noté qu’OpenAI avait mis à jour un article de blog antérieur concernant ses efforts de marquage.

Néanmoins, cette position d’OpenAI peut sembler paradoxale. Alors que ChatGPT est maintenant entre les mains du public depuis plusieurs années, il est difficile de comprendre ce qui pourrait être si dangereux dans le déploiement de son logiciel de marquage. À moins, bien sûr, qu’OpenAI ne cherche à conserver son avantage concurrentiel.

FAQ

Quels sont les avantages des outils de marquage ?

Les outils de marquage pourraient aider à identifier le contenu généré par l’IA, ce qui est crucial dans des situations comme les examens ou les publications académiques.

Pourquoi OpenAI retient-il ces outils ?

OpenAI hésite à publier ces outils pour éviter des risques potentiels et parce que cela pourrait affecter l’utilisation de ses services.

Existe-t-il des préoccupations éthiques concernant les filigranes ?

Oui, l’implémentation de ces outils pourrait provoquer des débats sur la transparence et la propriété intellectuelle, ainsi que sur l’impact sur les utilisateurs.

Quelles alternatives OpenAI envisage-t-il ?

OpenAI explore différents aspects techniques et éthiques de son approche au marquage, mais n’a pas encore précisé les alternatives qu’ils étudient.

Comment les utilisateurs réagissent-ils à ces outils potentiels ?

Les utilisateurs sont partagés ; certains soutiennent l’idée du marquage pour la transparence, tandis que d’autres craignent de perdre l’accès aux outils d’OpenAI si des filigranes sont ajoutés.

Quitter la version mobile