Intelligence Artificielle

OpenAI Suspend son Outil de Détection d’IA en Raison d’une Précision Insuffisante

OpenAI Suspend son Outil de Détection d'IA en Raison d'une Précision Insuffisante

Cesser et Recommencer

Cela a été rapide.

Moins de six mois après son lancement, OpenAI a décidé de retirer son “classificateur d’IA”, un outil conçu pour détecter si un texte a été rédigé par un humain ou par une IA. Cet outil avait été présenté par OpenAI comme un moyen de faire la distinction entre ces deux types de rédaction.

Dans un article de blog du 31 janvier de cette année, l’entreprise affirmait : « Bien qu’il soit impossible de détecter de manière fiable tous les textes écrits par de l’IA, nous pensons que de bons classificateurs peuvent aider à combattre des allégations fausses lorsque des textes générés par IA sont présentés comme ayant été écrits par des humains. » Ces préoccupations, comme l’utilisation d’IA pour les campagnes de désinformation,vaient justifier la nécessité d’un détecteur efficace.

Cependant, la semaine dernière, OpenAI a calmement annoncé dans le même blog que cet outil de classification n’est plus disponible, citant pour cause son **inexactitude** notoire. (Le lien vers cet outil a également disparu du site d’OpenAI.)

Dans une note publiée le 20 juillet, OpenAI a déclaré : « À partir du 20 juillet 2023, le classificateur d’IA n’est plus accessible en raison de son faible taux de précision. Nous travaillons à intégrer les retours d’expérience et nous étudions des méthodes de provenance plus efficaces pour le texte, et nous nous engageons à mettre en place des mécanismes permettant aux utilisateurs de déterminer si un contenu audio ou visuel est généré par IA. »

A lire :  L'AI Avancée Répond : L'Éthique de l'Intelligence Artificielle est-elle Possible ?

On pourrait penser qu’ils ont fait des efforts, mais la situation est désolante. Si les experts derrière ChatGPT ne parviennent pas à développer un outil fiable pour identifier ses propres productions, il est peu probable que d’autres y arrivent.

Narrateurs Peu Fiables

L’échec de cet outil semble significatif. On peut soutenir que la sortie de ChatGPT a entraîné une adoption rapide de l’IA générative par le public, et avec cette montée en puissance, le contenu synthétique va inévitablement se multiplier. Parallèlement, il deviendra de plus en plus difficile de différencier un contenu créé par un humain ou une machine. Un détecteur d’IA fiable pourrait aider à préserver la **réalité** et à éviter qu’elle ne se dérobe complètement.

Cela dit, il n’est pas vraiment **surprenant** qu’OpenAI ait décidé de fermer ce projet, étant donné qu’ils n’ont jamais garanti que cet outil était totalement précis, et qu’aucune autre entité n’a réussi à créer un classificateur d’IA parfait.

En dépit de cela, cela soulève des inquiétudes sur l’avenir des solutions de détection d’IA, surtout lorsque OpenAI abandonne son classificateur si rapidement. Actuellement, il existe peu d’alternatives fiables.

À lire aussi sur OpenAI : Des scientifiques de Stanford constatent que ChatGPT devient moins intelligent.

FAQ

Quel était le but initial du classificateur d’IA d’OpenAI ?

Le classificateur était destiné à différencier les textes écrits par des humains de ceux générés par divers outils d’intelligence artificielle.

Pourquoi OpenAI a-t-il décidé de retirer cet outil ?

L’outil a été retiré en raison de sa faible précision et de son incapacité à répondre aux attentes en matière de détection fiable des contenus générés par IA.

A lire :  Une IA S'inspire d'un Mème Viral pour Maîtriser la Navigation

Quelles sont les implications de la disparition de cet outil ?

Cela soulève des questions importantes sur la capacité de détecter les contenus synthétiques, particulièrement dans un contexte où l’IA devient de plus en plus omniprésente.

Existe-t-il des alternatives fiables pour la détection de contenus générés par l’IA ?

À l’heure actuelle, il n’existe pas de solutions pleinement fiables pour détecter de manière exacte les contenus produits par l’intelligence artificielle.

Que signifie cette situation pour l’avenir de l’IA générative ?

Le retrait de cet outil pourrait indiquer des défis importants à venir pour distinguer le contenu authentique du contenu généré par des machines, ce qui pourrait affecter la confiance du public dans les médias et les informations.