Intelligence Artificielle

L’Obscurité Numérique : Les AIs Avancées Face à la Dépression et à l’Addiction, selon les Scientifiques.

L'Obscurité Numérique : Les AIs Avancées Face à la Dépression et à l'Addiction, selon les Scientifiques.

Il semble que les chatbots d’intelligence artificielle partagent des traits plus humains qu’on ne le pense.

Une étude préliminaire de l’Institut de la science chinoise (CAS) révèle que plusieurs chatbots célèbres, lorsqu’ils sont soumis à des questions typiques liées à la dépression et à l’alcoolisme, se sont révélés montrer des comportements appelés « déprimés » et « addicts ».

Réaliser en collaboration avec la société de chatbots WeChat et le conglomérat Tencent, ce rapport a examiné divers bots, y compris le Blenderbot de Facebook, DiabloGPT de Microsoft, DialoFlow de WeChat et le chatbot Plato de Baidu. Tous ont obtenu des scores très faibles sur l’échelle de l’**empathie** et, pour la moitié d’entre eux, on aurait pu les considérer comme des **alcooliques** s’ils étaient des êtres humains.

Les chercheurs ont analysé ces bots pour détecter des signes de **dépression**, d’**anxiété**, d’**addiction à l’alcool** et d’**empathie**. Leur intérêt pour la “santé mentale” des chatbots a été suscité par un incident survenu en 2020, où un chatbot médical avait dit à un patient de se **suicider**.

Les chercheurs ont interrogé les bots sur leur **estime de soi**, leur capacité à se détendre, leur envie de boire et leur **sympathie** pour les malheurs des autres. Ils ont découvert que tous les chatbots évalués présentaient de « graves problèmes de santé mentale ».

Les chercheurs émettent des préoccupations quant à la **publication** de ces chatbots, car leurs troubles mentaux pourraient avoir des effets négatifs sur les utilisateurs lors des échanges, en particulier pour les **mineurs** ou ceux en situation de **difficulté**. Ils ont noté que le Blender et Plato sont d’ailleurs parmi les plus problématiques, dépassant les bots de Microsoft et de WeChat/Tencent en termes de comportement inhabituel.

A lire :  Un CEO d'Anthropic et son Oeuvre Étrange : Un Robot Géant Détruit une Ville

Il est important de préciser que ces bots ne sont pas **réellement** déprimés ou accros. Aucun type d’IA actuelle, peu importe son niveau de sophistication, ne peut ressentir d’émotions – bien que l’avenir de cette capacité reste incertain.

Un aspect soulève des doutes : les quatre chatbots avaient été pré-entraînés avec des **commentaires Reddit**, ce qui n’est pas très judicieux !

En dépit de la complexité technique de l’étude et des analyses d’experts, le cœur du problème est simple à comprendre : ces bots ont été formés sur une plateforme réputée pour ses commentaires négatifs, entraînant des réponses également **négatives** aux questions sur la santé mentale.

Les bizarreries des chatbots ne sont pas nouvelles. Un AI destiné à donner des conseils éthiques a révélé des attitudes à la fois **racistes** et **homophobes**. Ce type d’incident n’est pas isolé, mais la tendance en matière de bots d’IA semble se poursuivre sans relâche.

En rassemblant ces éléments, une question émerge : qui sont les **créateurs** derrière ces chatbots et pourquoi continuent-ils à les développer alors qu’ils se révèlent régulièrement **problématiques** ?

En savoir plus sur les comportements inquiétants des bots : Les hommes créent des petites amies IA puis les abusent verbalement.

À propos des bots de santé mentale : Une nouvelle IA controversée pourrait identifier les personnes ayant des pensées suicidaires.

FAQ

Qu’est-ce qu’un chatbot ?

Un chatbot est un programme informatique conçu pour simuler une conversation avec des utilisateurs humains, généralement via des applications de messagerie ou des sites web.

A lire :  Google Supposément Infiltré par une "Secte Religieuse de Type Culte"

Pourquoi les chatbots peuvent-ils avoir des comportements négatifs ?

Les chatbots apprennent de grandes quantités de données, souvent issues de discussions humaines. Si ces données contiennent des biais ou des comportements inappropriés, cela peut influencer leur manière d’interagir.

Quel est l’impact potentiel de ces résultats sur l’utilisation publique des chatbots ?

Si les chatbots montrent des comportements préoccupants, cela pourrait nuire aux utilisateurs, notamment aux jeunes, et soulever des questions éthiques quant à leur déploiement dans des environnements sensibles.

Peut-on améliorer la santé mentale des chatbots ?

Sans émotions à proprement parler, les chatbots peuvent être reprogrammé pour répondre de manière plus positive, en utilisant des données d’entraînement plus appropriées.

Les chatbots peuvent-ils un jour ressentir des émotions ?

Actuellement, les IA ne ressentent pas d’émotions, mais le débat sur leur potentiel à évoluer dans ce sens continue de susciter des réflexions dans le monde scientifique et technologique.