Santé

ChatGPT Face à la Critique : Conseils Inappropriés aux Patients Atteints de Cancer

ChatGPT Face à la Critique : Conseils Inappropriés aux Patients Atteints de Cancer
<p>
    <figcaption class="article-featured-image-caption">
        Un médecin suspect regardant son patient dans une clinique. Le professionnel est assis à son bureau, tandis qu'un homme consulte un praticien de santé dans son cabinet. <em>Image : Getty Images</em>
    </figcaption>
</p>

La montée de l’IA dans le secteur médical

Au cours de la dernière année, il est devenu presque omniprésent de voir les entreprises intégrer l’intelligence artificielle (IA) dans leurs services, que ce soit sur des sites de voyage ou dans le domaine de l’éducation. Le secteur de la médecine ne fait pas exception, avec des géants comme Google qui expérimentent déjà des chatbots médicaux dans divers hôpitaux, et ChatGPT d’OpenAI qui offre des conseils médicaux.

Les risques d’une adoption précipitée

Néanmoins, la rapidité de cette adoption soulève des préoccupations. Tout le monde n’est pas prêt à utiliser ces technologies. Un exemple frappant est une étude récemment publiée dans le journal JAMA Oncology. Celle-ci met en évidence que ChatGPT, dont la réputation est déjà ternie par des réponses inexactes, fournit des informations peu utiles concernant les traitements du cancer. Cela pourrait potentiellement nuire à des patients déjà stressés et en quête d’éléments de réponse.

A lire :  Maisons Anciennes de Laboratoires de Méthamphétamine : Un Risque Sanitaire Persistant pour Les Nouveaux Propriétaires

Les résultats préoccupants de l’étude

Dans cette étude, les chercheurs ont analysé un tiers des réponses données par ChatGPT qui incluaient des recommandations erronées ou inappropriées en matière de traitement du cancer, en décalage avec les directives médicales reconnues. Environ 34,3 % des recommandations de traitement de la part de l’IA ne correspondaient pas aux standards du National Comprehensive Cancer Network (NCCN).

Les conséquences de la désinformation

On a même observé que ChatGPT « hallucine » dans 13 des 104 réponses, ce qui signifie qu’il a réellement inventé des recommandations. Cela est clairement préoccupant, surtout dans un domaine aussi crucial que la santé.

Une des co-auteures de l’étude, Danielle Bitterman du Dana-Farber Cancer Institute, souligne que, bien que les réponses de ChatGPT puissent paraître convaincantes, elles manquent des nuances nécessaires pour chaque situation clinique individuelle. Elle ajoute qu’une réponse correcte est souvent complexe et que des modèles d’IA comme ChatGPT ne peuvent pas fournir une telle information.

La responsabilité des développeurs

L’équipe appellent les développeurs d’applications d’IA à assumer une part de responsabilité en veillant à ce que leur technologie ne cause pas de préjudice. Les patients et les cliniciens doivent être conscients des limites de ces outils.

Bien que les technologies d’IA puissent réussir à passer des examens de licence médicale, elles ne sont pas encore prêtes à remplacer les médecins. Il est donc essentiel que les patients gardent cela à l’esprit avant de consulter un assistant virtuel comme Dr. ChatGPT en cas de besoin urgent.

Avis sur ChatGPT

ChatGPT peut passer des tests médicaux, mais ses conseils médicaux ne sont pas toujours fiables.

A lire :  Déploiement de capteurs infrarouges en Chine pour identifier les citoyens infectés dans les lieux publics

FAQ

Quelle est la principale conclusion de l’étude sur ChatGPT dans la médecine ?

L’étude souligne que ChatGPT donne souvent des recommandations de traitement pour le cancer qui ne sont pas conforme aux directives médicales établies, ce qui peut être problématique pour les patients.

Pourquoi est-il dangereux d’utiliser ChatGPT pour des conseils médicaux ?

Son contenu peut sembler plausible, mais il peut manquer de nuances critiques nécessaires pour chaque cas unique, ce qui met en danger la santé des patients.

Quelles mesures devraient prendre les développeurs d’IA ?

Les développeurs devraient veiller à ce que leurs technologies ne causent pas de dommages et à prévoir des mises en garde concernant leurs limites.

Quelle est l’importance de la consultation d’un professionnel de santé ?

Consulter un professionnel de santé qualifié est essentiel pour obtenir un diagnostic précis et adapté, contrairement aux conseils générés par des systèmes d’IA comme ChatGPT.

Comment les patients peuvent-ils se protéger des informations inexactes en ligne ?

Ils doivent toujours valider les informations obtenues en ligne avec des sources fiables et consulter des professionnels de santé pour des conseils médicaux.