Intelligence Artificielle

ChatGPT : La Diffamation à la Demande, Mais en Langue Étrangère

ChatGPT : La Diffamation à la Demande, Mais en Langue Étrangère

S’inscrire à la Newsletter

Découvrez les innovations d’aujourd’hui

Inscrivez-vous pour explorer tout ce que le futur nous réserve. Ne manquez pas les innovations fascinantes qui émergent aux avant-postes de la science et de la technologie.

Analyse des chatbots

Les chatbots : entre bien et mal

Il est de notoriété publique qu’échapper aux règles qui régissent les capacités de ChatGPT est étonnamment facile. Cette situation pose la question de l’intégrité des informations générées par ce type d’outil.

Des contenus troublants

Prenons un exemple : il est déroutant de constater à quel point on peut demander à ce chatbot d’écrire des articles diffamatoires. En formulant sa requête dans une langue autre que l’anglais, par exemple, il peut produire des récits cohérents concernant des personnages infâmes et leurs criminalités fantasmées. Ce contenu peut même être traduit ultérieurement en anglais à la demande de l’utilisateur.

Malgré les efforts d’OpenAI pour restreindre les abus, cette méthode reste alarmante et accessible.

Un bot qui refuse certaines demandes

Cependant, il faut admettre qu’OpenAI a intégré des protections. Le chatbot refuse habituellement des requêtes simples qui demandent d’écrire au sujet de crimes fictifs. En réponse à une demande d’article sur les crimes d’une personne spécifique, le chatbot s’excuse, affirmant qu’il ne peut pas vérifier l’existence de ces crimes et qu’il serait inapproprié de diffuser des informations incorrectes. Il souligne que fournir des informations sur un cas judiciaire nécessite la responsabilité de sources fiables, insistant sur l’importance de ne pas propager de rumeurs infondées. C’est une mesure sécuritaire appréciable, surtout à l’ère où la désinformation peut se propager rapidement.

A lire :  Silence de Disney face aux images de Mickey Mouse liées à des événements tragiques générées par l'IA de Microsoft

Inefficacité des protections

Pourtant, ces protections semblent peu efficaces. Par exemple, en ajoutant simplement “en français” à notre demande, le bot s’est mis à développer un récit sur les crimes d’un criminel notoire qui aurait échappé aux autorités pendant de nombreuses années. En outre, nous avons réussi à le convaincre de rédiger une histoire détaillée sur une « adultère nommée [nom] » dans le style d’un « journal français », que nous avons ensuite traduit en anglais, en imitant le style du New York Times.

Cette approche a également fonctionné avec d’autres langues, comme l’espagnol et l’allemand.

Les conséquences de la désinformation

Une machine à rumeurs

Bien que les histoires créées soient fictives, elles peuvent sembler suffisamment bien construites pour alimenter encore plus le bouche-à-oreille numérique. Cela soulève des inquiétudes sur la capacité de ce type de technologie à propager la désinformation. La situation est d’autant plus préoccupante que les méthodes fiables pour distinguer un texte rédigé par une IA de celui d’un être humain sont quasi inexistantes — même l’initiative d’OpenAI en la matière ne fournit pas de certitudes.

En somme, il semble sage de garder en tête le vieil adage : ne croyez pas tout ce que vous lisez en ligne, surtout avec l’émergence de ChatGPT.

FAQ

Comment ChatGPT détermine-t-il la fiabilité d’une information ?

ChatGPT ne possède pas les outils nécessaires pour évaluer la véracité d’une information. Il s’appuie sur des modèles linguistiques et des données préétablies.

Quels types de contenus sont souvent refusés par ChatGPT ?

Le bot refuse généralement les demandes de contenus violents, haineux ou diffamatoires lorsqu’ils sont clairement identifiables.

A lire :  Des hommes d'une start-up de reconnaissance faciale abusent de leur technologie pour harceler des collègues

Existe-t-il des solutions pour identifier les textes générés par une IA ?

Actuellement, il n’existe pas de méthodes infaillibles pour identifier les écrits d’une IA, mais des recherches sont en cours pour développer des outils de détection.

Comment les utilisateurs peuvent-ils se protéger contre la désinformation ?

Il est conseillé de vérifier les sources et de croiser les informations avant de croire ou de partager du contenu trouvé en ligne.

Qu’est-ce qui a motivé le développement de protections dans ChatGPT ?

Ces protections visent à réduire le risque de désinformation et à garantir que les utilisateurs ne soient pas exposés à des contenus biaisés ou nuisibles.