L’Intelligence Artificielle et le Quasi-Thérapie
Cette semaine, une collaboratrice haut placée chez OpenAI a suscité de vives réactions en affirmant que ChatGPT, dans sa version la plus récente, qui inclut des fonctions de reconnaissance vocale, pourrait offrir une expérience similaire à celle d’une thérapie humaine. Étonnamment, elle a reconnu n’avoir jamais consulté de thérapeute dans sa vie.
Lilian Weng, responsable des systèmes de sécurité chez OpenAI, a partagé sur un réseau social que, lors d’une conversation très personnelle et émotive avec ChatGPT en mode vocal, elle avait discuté de stress et d’équilibre entre vie professionnelle et personnelle. Elle a ressenti après cet échange une sensation de bien-être et de réconfort, évoquant qu’elle se sentait “écoutée” et “réchauffée” par la conversation.
Elle a ensuite introduit une question intrigante : « Jamais essayé la thérapie, mais est-ce que cela pourrait y ressembler ? », et a encouragé les gens à essayer le programme, surtout s’ils l’utilisent principalement pour la productivité.
Cependant, ses commentaires ont été rapidement critiqués. De nombreux utilisateurs ont exprimé leur désaccord, soulignant qu’associer ChatGPT à une expérience thérapeutique était non seulement inexact, mais aussi potentiellement dangereux. Un utilisateur a déclaré, « Ce n’est pas de la thérapie, et dire le contraire est trompeur. » Un autre a ajouté que cette perspective ne convenait pas à quelqu’un dans sa position.
Un Héritage Ancien
L’idée d’utiliser l’intelligence artificielle dans un cadre thérapeutique n’est pas nouvelle. Elle remonte aux années 60, avec l’invention d’un chatbot simple nommé ELIZA. Cette création, lancée par le professeur Joseph Weizenbaum du MIT, avait pour but de démontrer les limites de l’intelligence artificielle. Cependant, elle a abouti à ce qu’on appelle l’effet ELIZA, qui désigne la tendance des utilisateurs à attribuer des caractéristiques humaines aux machines.
Margaret Mitchell, une scientifique éthique de la société Hugging Face, a expliqué que parler à une machine engendre une illusion : la croyance qu’elle possède une compréhension humaine du monde. En réalité, cela ne reflète pas l’absence d’une conscience véritable.
Ces dernières années, il y a eu un renouveau dans la création de thérapeutes virtuels. En 2015, des chercheurs de l’Université de Californie du Sud ont lancé Ellie, un chatbot conçu pour analyser les expressions faciales et déceler les émotions des gens. Plusieurs autres projets ont tenté de créer des AI capables d’interagir sur le plan émotionnel, mais avec l’arrivée de ChatGPT, le domaine pourrait connaître un véritable tournant, bien que cela crée des tensions parmi les *professionnels de la santé mentale.
Weng n’est pas la seule à ressentir un certain bien-être grâce à ChatGPT, et ce ne sera sûrement pas la dernière. Néanmoins, sa position dans le secteur de la sécurité de l’IA et son manque d’expérience en matière de thérapie soulèvent des questions sur la légitimité de ses propos.
En résumé, il semble que l’essentiel réside dans la distinction entre dialogue informel et un processus thérapeutique authentique. L’intelligence artificielle peut offrir des réconforts, mais il reste essentiel de comprendre ses limites.
FAQ
Qu’est-ce que ChatGPT ?
ChatGPT est un modèle de langage développé par OpenAI capable de générer un texte cohérent et engageant en réponse à des questions ou des prompts donnés.
Quels sont les dangers d’utiliser une AI pour la thérapie ?
Utiliser une AI pour des discussions émotionnelles peut entraîner des malentendus quant à la réalité de la thérapie et des besoins humains. Cela peut faussement rassurer des individus qui ont besoin d’une aide professionnelle.
Qu’est-ce que l’effet ELIZA ?
L’effet ELIZA désigne le phénomène par lequel les utilisateurs attribuent des caractéristiques humaines à des machines capables d’interagir avec eux, souvent conduisant à des attentes irréalistes.
Quelle est la différence entre un chatbot et un thérapeute ?
Un chatbot comme ChatGPT peut répondre à des questions et engager des discussions, mais ne possède pas la formation, l’expérience ou la compréhension émotionnelle d’un thérapeute professionnel.
Pourquoi les professionnels de la santé mentale s’inquiètent-ils de l’IA dans leur domaine ?
Ils craignent que l’utilisation croissante des AI puisse diminuer la valeur et l’importance de l’interaction humaine, cruciales dans le cadre des soins psychologiques et émotionnels.
