Technologie

Nouvelle étude révèle des failles inquiétantes dans la tendance actuelle de l’IA en santé : ‘Des divergences significatives’

Nouvelle étude révèle des failles inquiétantes dans la tendance actuelle de l'IA en santé : 'Des divergences significatives'

Les limites de ChatGPT en matière de conseils santé

L’utilisation de ChatGPT pour obtenir des recommandations en matière de santé a été bien accueillie au départ, mais elle a vite déçu de nombreux utilisateurs, qui se sentent désormais désenchantés plutôt que renforcés par ces outils.

Que se passe-t-il exactement ?

D’après les informations rapportées par The New York Times, beaucoup de professionnels de la santé et critiques de la technologie ont mis en garde contre les risques associés aux systèmes d’intelligence artificielle générative comme ChatGPT. Leur incapacité à fournir des réponses fiables aux questions de santé est préoccupante, car ces systèmes peuvent parfois être erronés, incohérents ou, pire, trompeurs.

Une étude parue dans le journal Nature Medicine a révélé que les modèles de langage avancés, tel que ceux qui soutiennent ChatGPT, ne contribuent pas nécessairement à améliorer la prise de décision médicale dans des situations réelles. En réalité, dans certains cas, ils peuvent causer plus de dommages que d’avantages.

Ce qui était autrefois perçu comme un moyen rapide pour mieux comprendre les symptômes et les options de traitement s’avère finalement générer confusion et imprécisions. Des chercheurs de l’Université d’Oxford ont observé que les individus se servant de ces chatbots pour diagnostiquer des problèmes de santé ou déterminer des parcours de soins n’étaient souvent pas plus performants — et pouvaient même obtenir de moins bons résultats — que ceux qui utilisaient des recherches internet plus classiques ou des sources écrites générales.

A lire :  Une nouvelle étude met en lumière un facteur négligé augmentant le risque de fragilité : 'Nécessite une attention urgente'.

Il est également préoccupant de constater que les chatbots peuvent offrir des diagnostics et des recommandations de traitement très variés selon la façon dont l’utilisateur présente sa condition. Par exemple, un chatbot a conseillé à un patient de se reposer dans une pièce sombre pour une migraine, tandis qu’il en a recommandé un aller direct aux urgences pour un problème similaire.

Pourquoi les chatbots de santé en IA suscitent-ils des inquiétudes ?

Malgré le lancement par OpenAI d’une version de ChatGPT dédiée à la santé, qui passe en revue les antécédents médicaux et les données personnelles des utilisateurs, la technologie sous-jacente n’a pas encore prouvé qu’elle était suffisamment sûre ou fiable pour une utilisation clinique. Même les leaders de l’industrie ont convenu que cet outil ne devait pas être utilisé pour poser des diagnostics ou fournir des traitements. Cependant, il continue d’influencer les comportements et attentes des utilisateurs.

Un des principaux problèmes réside dans le fait que ces chatbots n’ont pas été formés pour poser des questions de suivi ni gérer des décisions nuancées, comme le feraient les médecins lors de leurs interactions quotidiennes avec les patients.

En outre, l’intelligence artificielle requiert d’énormes quantités de ressources, notamment en eau et électricité. La technologie repose sur des centres de données pour fonctionner, et leur croissance rapide entraîne une augmentation des factures énergétiques pour des millions de personnes. Bien que de plus en plus de ces centres soient alimentés par des sources d’énergie renouvelables, comme l’éolien ou le solaire, les citoyens restent souvent responsables de la facture jusqu’à ce que le réseau s’adapte.

A lire :  Une entreprise technologique réalise une percée qui pourrait résoudre un enjeu majeur lié au plastique

Quelles initiatives pour améliorer les chatbots ?

Les chercheurs insistent sur la nécessité de validations indépendantes, de déclarations claires et d’une affirmation selon laquelle ce sont des humains, et non des algorithmes, qui doivent prendre les décisions concernant la santé personnelle.

D’autres rapports indiquent que les entreprises technologiques s’efforcent d’améliorer les modèles de ChatGPT afin qu’ils posent davantage de questions de suivi, ce qui pourrait améliorer leur exacte capacité à donner des conseils.

En attendant, il est probablement préférable de consulter un médecin agréé, que ce soit en personne ou en ligne, pour toute question de santé.

FAQ

Quels sont les risques d’utiliser ChatGPT pour des conseils médicaux ?

Utiliser ChatGPT pour des conseils médicaux peut mener à des diagnostics erronés et à des choix de traitement inappropriés, ce qui pourrait aggraver l’état de santé d’une personne.

Pourquoi les recommandations des chatbots varient-elles tant ?

Les chatbots peuvent produire des recommandations différentes en fonction de la formulation des questions par les utilisateurs, ce qui indique leur manque d’aptitudes à comprendre les nuances des symptômes humains.

Que faire si on reçoit des conseils contradictoires de plusieurs chatbots ?

Il est conseillé de vérifier ces conseils auprès de sources médicales fiables ou de consulter un professionnel de santé avant de prendre une décision basée sur ces recommandations.

Quelles alternatives existent aux conseils fournis par l’IA ?

Les sites de santé réputés, les applications de santé et bien sûr, les consultations avec des médecins en personne, sont de meilleures alternatives pour obtenir des conseils médicaux fiables et sécurisés.

A lire :  Des études de santé révèlent que la mauvaise qualité de l'air peut priver les individus de leurs années les plus saines.

Comment les technologies de santé évoluent-elles pour devenir plus fiables ?

De nombreuses entreprises travaillent sur l’amélioration continue des algorithmes d’IA pour qu’ils intègrent des questions de suivi et utilisent des protocoles de validation rigoureux, ce qui devrait améliorer la précision des recommandations.