Les erreurs des modèles d’IA
Malgré des investissements colossaux, même le dernier modèle d’IA d’OpenAI n’échappe pas à des erreurs stupides. Par exemple, il est encore incapable de compter correctement le nombre de fois que la lettre « r » apparaît dans le mot « fraise ».
Les conséquences des “hallucinations” à l’IA
Les “hallucinations”, un terme utilisé par les entreprises d’IA pour désigner les informations incorrectes fournies par leurs chatbots, peuvent sembler anodines lorsque l’on traite d’un devoir étudiant. Cependant, les enjeux prennent une toute autre dimension lorsqu’il s’agit de conseils médicaux.
La plateforme MyChart et ses nouvelles fonctionnalités
Un grand nombre de messages circulent chaque jour entre médecins et patients sur la plateforme MyChart. Récemment, la société a introduit une fonctionnalité alimentée par l’IA qui génère automatiquement des réponses aux questions des patients au nom des médecins et de leurs assistants.
Des médecins déjà utilisateurs malgré les risques
Selon un article du New York Times, environ 15 000 médecins utilisent déjà cette fonctionnalité, bien que l’IA puisse introduire des erreurs potentiellement dangereuses.
Cas d’erreur de l’IA
Un exemple frappant est celui de Vinay Reddy, médecin en médecine familiale à l’UNC Health, qui a découvert qu’un message généré par l’IA avait rassuré une patiente sur le fait qu’elle avait reçu un vaccin contre l’hépatite B, alors qu’il n’avait jamais eu accès à ses dossiers de vaccination.
Manque de transparence concernant l’origine des réponses
Un autre problème réside dans le fait que l’outil de MyChart n’est pas tenu de signaler qu’une réponse provient d’une IA. Cela complique la tâche des patients pour réaliser qu’ils reçoivent des conseils médicaux d’un algorithme.
Technologie derrière l’outil
Ce système repose sur une version de GPT-4, le modèle de langage développé par OpenAI qui alimente ChatGPT. Il recueille des données provenant de documents comme des dossiers médicaux et des prescriptions.
Simulation de la voix des médecins
L’outil essaie même de simuler le style de communication des médecins, ce qui rend son utilisation encore plus insidieuse.
Économiser du temps ou compromettre la qualité des soins ?
Selon Athmeya Jayaram, chercheur en bioéthique, le discours marketing affirme que cette technologie vise à économiser du temps pour permettre aux médecins d’échanger davantage avec leurs patients. Toutefois, cela soulève des questions sur la qualité des interactions, car le dialogue est alors remplacé par de l’IA générative.
Les préoccupations des spécialistes
Les critiques s’inquiètent que, bien que les médecins soient censés revoir ces messages, des erreurs pourraient passer inaperçues.
Preuves d’erreurs potentielles
Une étude récente a mis en évidence des hallucinations dans sept des 116 messages générés par MyChart. Bien que cela puisse sembler limité, une seule erreur pourrait avoir des conséquences désastreuses.
Erreurs fréquentes de l’IA
Une autre étude a révélé que GPT-4 commettait régulièrement des erreurs lorsqu’il était chargé de répondre à des messages de patients.
Manque de règles concernant l’IA dans le secteur médical
Beaucoup de patients peuvent ne jamais réaliser qu’ils reçoivent des conseils d’une IA, car il n’existe actuellement aucune réglementation fédérale imposant d’identifier les messages d’origine IA.
La perception des patients
Jayaram souligne qu’un patient s’attend à lire un message dans la voix de son médecin. S’il apprenait que ce qu’il lit provient en réalité d’une IA, il pourrait se sentir trahi.
Questions fréquentes
Quelle est la source des données utilisées par MyChart ?
MyChart utilise des données provenant de dossiers médicaux, de prescriptions et d’autres documents cliniques pour générer des réponses.
Est-ce que les médecins peuvent toujours modifier les réponses générées par l’IA ?
Oui, les médecins ont la possibilité de revoir et de modifier les réponses avant de les envoyer aux patients.
Quels sont les risques potentiels de l’utilisation de l’IA en médecine ?
Les risques incluent des erreurs d’information, une qualité de soins compromise et un manque de transparence quant à l’origine des conseils médicaux.
Y a-t-il d’autres plateformes similaires à MyChart ?
Oui, d’autres services de télémédecine et plateformes de communication médicale explorent également l’utilisation de l’IA pour améliorer l’interaction entre patients et professionnels de santé.
Quel est l’impact de ces technologies sur la relation médecin-patient ?
L’utilisation d’outils d’IA pourrait altérer la confiance que les patients ont envers leurs médecins, en remettant en question la qualification et la précision des conseils médicaux qu’ils reçoivent.
