Santé

ChatGPT : Un Médecin à Fuire !

ChatGPT : Un Médecin à Fuire !

ChatGPT : Un Risque pour le Diagnostic Médical ?

Bien que vous puissiez envisager d’utiliser ChatGPT pour rédiger un courriel ennuyeux, lui confier la tâche de diagnostiquer des maladies pourrait s’avérer très risqué. Une étude récente révèle que vous feriez peut-être mieux de ne pas lui faire confiance dans ce domaine.

Précisions sur l’Étude

Dans cette recherche, ChatGPT a été confronté à 150 cas médicaux et a émis des diagnostics corrects moins de la moitié du temps, comme le souligne une étude publiée dans la revue Plos One. Ces résultats jettent le doute sur l’utilisation des chatbots dans des environnements médicaux, en particulier dans le cadre d’initiatives explorées par des entreprises telles que Google.

Les Limites des Modèles d’IA

Les chercheurs alertent que, sous sa forme actuelle, ChatGPT « n’est pas fiable en tant qu’outil de diagnostic ». Cela soulève des questions sur la confiance que les gens pourraient accorder à des technologies qui ne sont pas encore prêtes à remplacer les médecins. Des modèles d’IA sont déjà conçus pour des usages médicaux, mais les auteurs de l’étude craignent que le public n’exagère leurs capacités.

A lire :  Une Inscription Sauvage sur les Douilles des Exécutions d'un PDG d'Assurance Santé.

Selon Amrit Kirpalani, l’un des auteurs et professeur assistant à l’Université Western, « lorsque les gens sont désorientés ou incapables d’accéder aux soins, ils peuvent se fier à un outil qui prétend fournir des conseils médicaux personnalisés ».

Réalité de l’Expérience

Les chercheurs ont soumis à ChatGPT des cas diagnostiqués à partir de Medscape, une ressource en ligne pour les professionnels de la santé. Ils ont veillé à choisir uniquement des cas postérieurs à août 2021, afin d’éviter les données déjà intégrées dans le modèle pendant sa phase de formation.

Pour garantir une évaluation juste, le chatbot avait accès à des éléments comme l’historique médical des patients, les résultats d’examens physiques et d’analyses de laboratoire — des informations auxquelles un médecin humain aurait également accès.

Les Performances de ChatGPT

Pour chaque cas, ChatGPT devait sélectionner l’une des quatre réponses proposées, parmi lesquelles une seule était correcte. Il devait également justifier son choix et, dans certains cas, fournir des références.

Malheureusement, si ChatGPT était un étudiant en médecine, il aurait obtenu un note désastreuse : il a donné un diagnostic correct seulement dans 49 % des cas et a fourni des réponses « complètes et pertinentes » dans 52 % des situations.

D’un autre côté, l’exactitude globale était meilleur. En considérant sa capacité à éliminer les mauvaises réponses parmi les choix disponibles, il a obtenu 74 %. Cela signifie qu’il était plutôt bon pour identifier ce qui était incorrect.

Les Faiblesses et Potentiel de l’IA

Bien que ces résultats soient notables, le chatbot peine à identifier le diagnostic final. Ses principales lacunes par rapport aux médecins humains incluent des difficultés à interpréter des valeurs numériques et à analyser des images médicales. De plus, il arrive que ChatGPT hallucine en émettant des informations erronées ou en ignorant des données essentielles.

A lire :  Pfizer Multiplie par 100 le Coût de Production de son Vaccin COVID

Malgré ces faiblesses, les chercheurs notent que l’IA pourrait jouer un rôle utile dans la formation des médecins en formation, voire même pour les professionnels confirmés, tant que le jugement final reste entre les mains de véritables fournisseurs de soins.

Amrit Kirpalani souligne que l’usage de l’IA et des chatbots peut considérablement augmenter l’efficacité dans le décisionnel clinique, améliorer la gestion administrative et renforcer l’engagement des patients.


FAQ

Qu’est-ce que ChatGPT ?

ChatGPT est un modèle de traitement du langage développé par OpenAI qui utilise l’intelligence artificielle pour générer des textes en réponse aux entrées des utilisateurs.

Existe-t-il d’autres études similaires sur l’IA en médecine ?

Oui, plusieurs études examinent l’utilisation de l’IA dans la santé, généralement pour évaluer comment elle peut aider au diagnostic ou à la gestion des soins, mais avec des résultats variés sur la précision.

Comment les hôpitaux peuvent-ils intégrer les chatbots ?

Les hôpitaux peuvent utiliser les chatbots pour répondre à des questions simples des patients ou aider à la gestion des rendez-vous, mais sous la supervision d’un professionnel de la santé.

L’IA pourra-t-elle remplacer les médecins à l’avenir ?

Actuellement, l’IA ne peut pas remplacer les médecins, car elle manque d’éléments humains comme le jugement éthique et l’empathie, essentiels dans le domaine médical.

Comment se préparer à une consultation avec un médecin qui utilise de l’IA ?

Il est conseillé de rester informé sur les outils que le médecin utilise et d’aborder la consultation avec des questions et des inquiétudes afin de maximiser l’efficacité de la rencontre.