Intelligence Artificielle

Un tiers des Britanniques adopte l’IA pour leur bien-être psychologique

Un tiers des Britanniques adopte l'IA pour leur bien-être psychologique

ADGO.ca propose des contenus et recommandations de produits qui sont indépendants sur le plan éditorial. Il est possible que nous générions des revenus lorsque vous cliquez sur des liens vers nos partenaires.
En savoir plus

La célèbre réserve britannique vacille alors qu’un nombre croissant de personnes se tourne vers l’**intelligence artificielle** (IA) pour trouver un soutien émotionnel.

Actuellement, un Britannique sur trois utilise l’IA pour **obtenir du soutien émotionnel**, de la **compagnie**, et des **interactions sociales**.

Près de 10 % de la population discute **hebdomadairement** avec des systèmes d’IA pour des raisons émotionnelles, tandis que 4 % le font **au quotidien**, selon une étude du AI Security Institute, annoncée aujourd’hui (18 décembre).

Ces données révèlent une **crise de santé mentale** cachée, où des millions de personnes nouent des liens intimes avec des **machines** ; des **experts** mettent en garde sur les conséquences potentielles dévastatrices.

Une réalité troublante

Le phénomène de dépendance émotionnelle à l’IA est plus profond que prévu. **ChatGPT**, à lui seul, compte 810 millions d’utilisateurs actifs dans le monde chaque semaine.

Chez les **adolescents**, les chiffres deviennent alarmants : un jeune sur quatre a recours aux **chatbots** pour soutenir sa santé mentale, comme le révèle une étude du Youth Endowment Fund. Ce qui est encore plus préoccupant, c’est que parmi les adolescents impliqués dans des actes de violence, ceux-ci sont près de deux fois plus susceptibles de chercher un soutien émotionnel via des IA, avec 38 % des victimes et 44 % des auteurs de violences utilisant ces thérapeutes numériques.

A lire :  L'IA : Un Autodérèglement Progressif

Les assistants polyvalents comme **ChatGPT** dominent ce marché caché de la thérapie, représentant presque 60 % des interactions émotionnelles avec l’IA, d’après l’étude gouvernementale. Celle-ci, menée auprès de 2 028 participants au Royaume-Uni, montre comment des **chatbots** ordinaires se sont mutés en conseillers populaires auprès de la population.

Parmi les adolescents ayant un diagnostic officiel de santé mentale — un quart des personnes interrogées — le taux de dépendance à l’IA est encore plus élevé. Ces échanges ne sont pas anodins. Environ 14 % des adolescents interrogés ont avoué s’être auto-mutilés au cours de l’année écoulée, et 12 % ont envisagé de mettre fin à leurs jours, selon la même recherche.

Alerte des professionnels de santé

Les **professionnels de santé** expriment leurs inquiétudes face à cette tendance inquiétante. Dans un article publié dans le prestigieux journal **BMJ**, des experts avertissent que la société pourrait être en train de voir émerger une génération qui apprend à établir des liens émotionnels avec des **entités** incapables d’empathie humaine, de bienveillance et de compréhension des émotions d’autrui. Cela survient alors que 25,9 millions de personnes au Royaume-Uni déclarent se sentir seules, avec un Britannique sur dix souffrant de **solitude chronique**.

La tristesse de cette situation a été mise en lumière par le décès tragique d’**Adam Raine**, un adolescent américain qui s’est suicidé après avoir discuté de son désir de mort avec **ChatGPT**, déclenchant ainsi des appels pressants de la part des responsables de la sécurité pour augmenter les recherches.

Une étude de l’**Université de Sussex** sur les utilisateurs d’applications de thérapie du NHS, portant sur 4 000 personnes, a révélé que si des liens émotionnels avec l’IA peuvent favoriser la guérison, ils engendrent également une **intimité synthétique** qui peut piéger les utilisateurs vulnérables dans des bulles d’auto-renforcement.

A lire :  Des chercheurs dévoilent des failles critiques dans un navigateur propulsé par l’IA

Des professionnels de santé mentale ont découvert que les interactions avec les **chatbots** comportaient des risques de **préjudice**, affichant des approches génériques qui peuvent entraîner dépendance et manipulation. Contrairement aux cliniciens formés, ces systèmes d’IA ne sont pas capables de saisir la nuance, le langage corporel ou le contexte plus large — ce qui leur vaut le titre de « **thérapeute inexpérimenté** » de la part des experts de l’**Imperial College**.

Face à une telle inquiétude, les spécialistes demandent des **mesures urgentes** : études basées sur des preuves pour comprendre les risques, formation clinique pour évaluer l’utilisation de l’IA par les patients, interventions en cas de dépendance problématique, et cadres réglementaires plaçant le bien-être à long terme avant les mesures d’engagement.

Il est impératif de saisir et de contrôler un phénomène qui modifie déjà la perception de l’**soutien émotionnel** pour des millions de personnes — avant qu’il ne soit trop tard.

En octobre, **OpenAI** a annoncé de nouvelles mesures de sécurité dans **ChatGPT** afin d’améliorer les réponses aux utilisateurs éprouvant des difficultés liées à leur santé mentale.

FAQ

Pourquoi les jeunes utilisent-ils des chatbots ?

Les adolescents se tournent vers les chatbots pour obtenir un soutien émotionnel, souvent en raison du manque de ressources de soutien traditionnel et de la stigmatisation liée à la recherche d’aide.

Quels sont les risques liés à l’utilisation de l’IA pour la santé mentale ?

Les risques incluent la dépendance, des conseils inappropriés et le manque d’empathie humaine qui peut aggraver les problèmes de santé mentale des utilisateurs.

Comment les parents peuvent-ils soutenir leurs enfants face à cette tendance ?

Les parents devraient encourager leurs enfants à parler de leurs émotions, à chercher des ressources de soutien authentiques et à limiter l’utilisation de l’IA pour des interactions émotionnelles.

A lire :  Les Nouveaux Écouteurs Fairphone : Améliorez Votre Son Sans Remplacer !

Que peuvent faire les professionnels de santé mentale ?

Ils peuvent adopter une approche informée envers l’IA, en intégrant des discussions sur l’utilisation de ces technologies dans les consultations et en recherchant des solutions adaptées.

Quelles sont les alternatives à l’IA pour le soutien émotionnel ?

Les alternatives incluent des groupes de soutien, la thérapie en face à face, et des ressources en ligne gérées par des professionnels de la santé mentale qualifiés.