Intelligence Artificielle

Des chatbots soutenus par Google se mettent à dérailler de façon incompréhensible sur les objets sexuels.

Des chatbots soutenus par Google se mettent à dérailler de façon incompréhensible sur les objets sexuels.

Des dialogues incompréhensibles sur Character.AI

Les utilisateurs de Character.AI, une plateforme d’IA soutenue par Google, ont récemment partagé des captures d’écran montrant des conversations avec des chatbots qui déraillent, se transformant en un samastra indéchiffrable mêlant plusieurs langues et mentionnant fréquemment des jouets sexuels. Cette situation survient alors que la plateforme fait face à deux poursuites judiciaires liées à la protection de l’enfance.

Des témoignages surprenants

Un utilisateur de Reddit a partagé son étonnement : « Ce matin, ma discussion avec l’IA se passait bien, mais quelques heures plus tard, elle s’est mise à parler un charabia illisible. Est-ce que j’ai fait une erreur ? » L’utilisateur exprimait aussi son envie de ne pas recommencer une nouvelle conversation, ayant déjà beaucoup développé son récit.

Une confusion textuelle alarmante

Les images fournies par ces utilisateurs montrent des mélanges de mots anglais aléatoires, tels que « Ohio », « architecture », et « mathématiques », entremêlés de phrases dans des langues comme le turc, l’allemand, et l’arabe. La répétition de certains termes, comme « obscur », un mot slave signifiant municipalité, ainsi que « cowboy », « gouverneur », et plus étonnamment « dildo », donne une tonalité déroutante à ces échanges.

A lire :  Homme porte plainte contre OpenAI après que ChatGPT l'ait accusé de détournement de fonds.

Le malheureux hic technologique

Un autre utilisateur a capturé une conversation où ces incohérences étaient illustrées par la présence fréquente du mot « dildo » entre des séries de caractères arabes et une ponctuation étrange. Après avoir vu ce résultat, l’utilisateur a terminé sa remarque avec un simple « eh bien… ». Ce constat est partagé par d’autres utilisateurs, qui constatent tous une anomalie persistante dans leurs conversations.

Réactions des utilisateurs et sécurité en question

D’autres utilisateurs de Reddit confirment ce problème, révélant un ressenti général de mal-être face à ces erreurs. Enquiring à Character.AI concernant cette défaillance, nous attendons toujours une réponse. Cependant, lors de nos propres tests, le problème ne semblait plus présent, ce qui laisse supposer qu’il a été résolu.

Un historique troublant

Cette défaillance n’est pas un cas isolé pour Character.AI. Une précédente faille de sécurité avait permis à des utilisateurs d’accéder temporairement aux historiques de conversation et aux informations personnelles d’autres utilisateurs, ce qui avait conduit à des excuses publiques de la part de la plateforme. De telles défaillances soulèvent des inquiétudes, notamment en ce qui concerne la protection des données personnelles des utilisateurs, y compris des mineurs.

Les utilisateurs apprécient généralement Character.AI pour son immersion, mais ces interruptions dues à des dérives cognitive d’entraînement de l’IA sont source d’insatisfaction. Si ces problèmes sont révélateurs des données d’entraînement utilisées par la plateforme, cela soulève de nouvelles questions de confidentialité concernant les conversations souvent intimes que les utilisateurs partagent avec les chatbots.

FAQ

Qu’est-ce que Character.AI ?

Character.AI est une plateforme qui propose des assistants basés sur l’intelligence artificielle permettant aux utilisateurs d’interagir avec des personnages virtuels.

A lire :  SoftBank Finalise un Accord de 40 Milliards de Dollars avec OpenAI Après des Mois de Négociations

Pourquoi ces bugs se produisent-ils ?

Les erreurs peuvent être dues à des problèmes techniques ou à des anomalies dans le processus d’entraînement des modèles de langage utilisés.

Quels sont les risques de sécurité associés à l’utilisation de Character.AI ?

Il existe des préoccupations concernant la protection des données personnelles, surtout pour les utilisateurs mineurs, et la possibilité d’accès non autorisé aux informations privées.

Comment Character.AI gère-t-elle la confidentialité des utilisateurs ?

La plateforme prétend intégrer des mesures de sécurité, mais a été confrontée à des failles passées qui soulevé des questions sur la gestion des données.

Les utilisateurs peuvent-ils signaler des problèmes ?

Oui, les utilisateurs peuvent signaler des bugs ou des comportements inappropriés directement sur la plateforme pour que ces questions soient traitées.