Santé

ChatGPT Réussit des Tests Médicaux, Mais Ses Conseils Reste À Prendre Avec Précaution

ChatGPT Réussit des Tests Médicaux, Mais Ses Conseils Reste À Prendre Avec Précaution

Les promesses et limites de l’IA dans le domaine médical

Récemment, Sam Altman, le PDG d’OpenAI, a suggéré que des intelligences artificielles telles que ChatGPT pourraient jouer le rôle de “conseillers médicaux” pour les personnes sans accès à des soins de santé. Une idée qui, à première vue, semblait ingénieuse, mais qui suscite aujourd’hui encore davantage de scepticisme.

La recherche met en lumière les insuffisances de ChatGPT

D’après une étude récente menée par des experts médicaux de l’Université de Stanford, malgré le fait que ChatGPT ait réussi plusieurs examens, y compris l’Examen de licence médicale des États-Unis, il reste préoccupant de constater qu’il offre des réponses peu fiables lors de situations médicales concrètes. En effet, presque 60 % des réponses fournies par le chatbot n’étaient ni pertinentes ni en accord avec celles des experts humains.

Une évaluation par des médecins

Dans le cadre de cette étude, les chercheurs de Stanford ont soumis 64 questions médicales à ChatGPT et ont demandé à douze experts médicaux d’évaluer ses réponses. Les résultats ont révélé que bien que plus de 90 % des réponses étaient considérées comme “sûres” (c’est-à-dire non nuisibles), seule une part bien plus faible de 41 % était en accord avec les avis médicaux professionnels.

A lire :  Des Épiceries S'inquiètent Après que Du Spinach Fait Vivre des Voyages Hallucinogènes à des Clients.

Les répercussions de cette étude

Certains experts revoient leurs affirmations concernant l’utilité de l’IA en médecine, suggérant qu’elle pourrait servir d’outil pour alléger les tâches administratives. Toutefois, Mark Sendak, un scientifique des données cliniques à l’Université de Duke, met en garde : cette vision pourrait être trompeuse.

Sendak souligne que s’appuyer sur ces outils pour améliorer l’efficacité des médecins pourrait être un pas vers des conséquences inattendues. Il craint que les évaluations sur la capacité de l’IA à gérer les tâches en coulisses de la médecine ne soient pas suffisamment rigoureuses.

Des atouts humains indéniables

Il est important de noter que les personnes impliquées dans l’évaluation avaient accès aux dossiers médicaux des patients, une information à laquelle ChatGPT n’a pas accès. Ce point met en évidence une faiblesse dans l’évaluation de l’IA : celle-ci est souvent jugée uniquement sur sa connaissance théorique, sans tenir compte de sa capacité réelle à coacher les médecins.

Nigam Shah, professeur de médecine à Stanford et leader de l’étude, souligne qu’il est nécessaire de repenser la façon dont nous évaluons ces technologies. Selon lui, il serait plus judicieux de mesurer l’interaction entre les humains et l’IA pour en tirer des enseignements.

Vers de nouvelles approches

Shah a également révélé qu’il était impressionné par l’amélioration de GPT-4 par rapport à son prédécesseur, qui n’était d’accord avec les experts qu’à 20 % des occasions. Il prévoit de futurs tests pour voir comment l’IA pourrait aider à des consultations dans des comités chargés d’examiner des cas de tumeurs, en comparant ces résultats à ceux d’une équipe entièrement humaine.

A lire :  L’IA provoque une inquiétante dérive de l’effet Dunning-Kruger, selon une étude

FAQ

Quelles tests a passé ChatGPT en médecine ?

ChatGPT a réussi divers tests, dont l’Examen de licence médicale des États-Unis, mais cela ne garantit pas son efficacité dans des scénarios pratiques.

Pourquoi les experts restent-ils sceptiques ?

Les experts s’inquiètent de la capacité de ChatGPT à fournir des réponses fiables aux situations médicales réelles, surtout quand il ne peut pas accéder aux dossiers des patients.

Comment l’IA peut-elle aider dans la médecine ?

L’IA pourrait potentiellement aider à automatiser des tâches administratives, mais son rôle en tant que conseiller médical nécessite davantage de recherches et d’évaluations.

Quel avenir pour l’IA en médecine ?

Les experts suggèrent que l’avenir de l’IA en médecine réside peut-être dans son intégration avec des professionnels de santé, plutôt que de remplacer le jugement humain.

Quelles sont les implications éthiques de l’utilisation de l’IA dans la santé ?

L’utilisation de l’IA dans le domaine de la santé soulève des questions éthiques comme la responsabilité en cas d’erreur, la protection des données des patients et le potentiel biais dans les algorithmes.