L’utilisation suspecte de l’IA par certains thérapeutes
Avec l’avènement de l’intelligence artificielle dans divers aspects de notre quotidien, certains professionnels de la santé mentale adoptent des pratiques peu éthiques en intégrant discrètement ces technologies. Cela engendre des problèmes de confiance majeurs pour des clients vulnérables qui attendent sensibilité et confidentialité de leurs séances.
Témoignages troublants
Un article de MIT Technology Review expose que des thérapeutes ont eu recours à des outils comme ChatGPT d’OpenAI pour tout, allant de la réponse à des emails à la formulation de questions durant les séances. Un homme de 31 ans, identifié sous le prénom Declan, a partagé son expérience déroutante. Pendant une séance virtuelle, il a proposé de couper les caméras après une connexion instable. Ce qu’il ne savait pas, c’est que son thérapeute a accidentellement révélé son écran, où on pouvait voir ChatGPT en action.
Declan a décrit sa surprise : son thérapeute utilisait un logiciel pour transformer ses paroles en questions et suggestions à lui donner. Étonnamment, il a commencé à répéter les réponses générées par l’IA, ce que son thérapeute interprétait comme une avancée dans leur travail ensemble. Lors de leur prochaine rencontre, Declan a confronté son thérapeute, qui a admis avoir fait appel à ChatGPT, affirmant qu’il manquait d’idées. Cet échange a été décrit comme un moment de rupture extrêmement inconfortable.
Une autre perspective
Laurie Clarke, l’auteur de l’article, a aussi vécu une expérience similaire. Elle a reçu un email de son thérapeute, plus long et mieux rédigé que d’habitude. Bien que ce message semblait affable et attentionné au premier abord, elle a rapidement remarqué qu’il contenait des éléments qui ne correspondaient pas à son style habituel. Elle a donc commencé à douter de l’authenticité de cet échange. Son thérapeute a rétorqué qu’elle dictait ses emails à une intelligence artificielle, ce qui a éveillé encore plus de soupçons chez Laurie concernant l’utilisation de ses informations personnelles.
Autres histoires de clients
Clarke n’était pas seule dans cette situation. Sur Reddit, elle a découvert que d’autres personnes avaient eu des expériences similaires avec leurs thérapeutes. Hope, une jeune femme de 25 ans, a aussi été très déçue après avoir reçu un message standardisé de son thérapeute après le décès de son chien. Bien que le message soit touchant, un indice oublié révélait l’utilisation de l’IA. Hope a exprimé son sentiment de trahison, affirmant que cela affectait sa confiance dans sa thérapeute.
L’importance de la confiance
À l’heure où de plus en plus de personnes envisagent de consulter des thérapeutes, parfois même des therapeutes virtuels alimentés par l’IA, il est crucial que le choix de se tourner vers un professionnel de la santé mentale soit pris en toute confiance. La confidentialité et le respect de l’information du client doivent demeurer des priorités absolues pour les thérapeutes. Malheureusement, les pratiques douteuses décrites dans ces témoignages mettent en doute l’intégrité de certains professionnels, risquant non seulement leur réputation mais aussi leur carrière.
FAQ
Qu’est-ce que ChatGPT ?
ChatGPT est un modèle de langage développé par OpenAI qui utilise l’intelligence artificielle pour générer des réponses textuelles. Il est utilisé dans divers domaines, mais son utilisation dans des contextes sensibles comme la santé mentale pose des questions éthiques.
Quels sont les risques associés à l’utilisation de l’IA en thérapie ?
Les risques incluent la violation de la vie privée des patients, la diffamation de leur confiance et la possibilité de mal interpréter des data sensibles, ce qui pourrait nuire au traitement et à la relation thérapeutique.
Comment un client peut-il s’assurer que son thérapeute respecte sa confidentialité ?
Il est important de poser des questions sur les pratiques du thérapeute concernant la confidentialité et l’utilisation de technologies. Les clients devraient se sentir à l’aise de demander comment leurs informations sont traitées.
Que faire si vous soupçonnez que votre thérapeute utilise l’IA ?
Il est conseillé de discuter directement de vos préoccupations avec le thérapeute. Si vous n’êtes pas satisfait de leur réponse, envisagez de consulter un autre professionnel.
Quelle est la position des experts sur l’utilisation de l’IA en thérapie ?
Beaucoup d’experts avertissent que les IA ne peuvent pas remplacer l’empathie humaine et la compréhension nuance de situations complexes, soulignant l’importance de l’interaction humaine dans le cadre thérapeutique.
