Une Découverte Étonnante d’un Biologiste Danois
Un biologiste danois a récemment été surpris d’apprendre que son nom était mentionné à plusieurs reprises dans un article scientifique au sujet des myriapodes — mais concernant des publications qui n’existaient tout simplement pas.
Un Usage Problematique de l’IA
D’après les informations rapportées par Retraction Watch, Henrik Enghoff, myriapodologue au Muséum d’Histoire Naturelle du Danemark, soupçonnait que les auteurs de cet article, originaires de Chine et d’Afrique, avaient utilisé ChatGPT d’OpenAI pour rechercher des références académiques. Son intuition s’est révélée correcte.
Retrait de l’Article
L’article problématique a été retiré par Preprints.org, une archive de prépublications gérée par l’éditeur académique MDPI, en juin dernier, après que David Richard Nash, collègue d’Enghoff à l’Université de Copenhague, ait informé les éditeurs des nombreuses erreurs présentes.
Résurgence Sur Une Autre Plateforme
L’article a récemment fait son apparition sur une autre plateforme de prépublications, Research Square, y compris ses références fictives.
Un Enjeu Inquiétant pour la Recherche Académique
Cet incident soulève des préoccupations pour tout chercheur sur la manière dont la technologie IA pourrait miner la légitimité de la recherche scientifique. Des études ont déjà démontré que des outils comme ChatGPT peuvent avoir une tendance préoccupante à générer des citations académiques inexistantes.
Impact au-delà de l’Académie
Ce phénomène ne se limite pas à la recherche universitaire. En effet, en début d’année, des journalistes du quotidien The Guardian ont noté que l’IA était capable de fabriquer des articles complets avec des signatures d’auteurs qui n’avaient jamais écrit ces articles fictifs. De plus, un avocat a utilisé ChatGPT pour inventer des affaires judiciaires tout en préparant un dossier pour son client, une décision qui a eu des conséquences désastreuses.
Conséquences et Avenir
La situation actuelle ressemble à un jeu de chat et de souris, et elle pourrait se transformer en un véritable casse-tête pour les chercheurs. Lloyd Shu, éditeur chez Preprints.org, a indiqué à Nash par e-mail que l’article serait immédiatement retiré et que les auteurs seraient ajoutés à une blacklist.
Une Confirmation d’Utilisation Inappropriée
Kahsay Tadesse Mawcha de l’Université d’Aksum en Éthiopie, qui figurait comme auteur correspondant de cette prépublication, a avoué à un journal danois qu’il avait effectivement utilisé ChatGPT, réalisant par la suite que cet outil n’était pas recommandé pour ce travail. Dans la nouvelle version de l’article publiée sur Research Square, Mawcha est le seul auteur mentionné, bien que plusieurs références à d’autres publications fictives perdurent.
Risques pour les Décisions Politiques
Le chercheur Leif Moritz, expert des myriapodes, a exprimé des inquiétudes quant à la manière dont ces références inventées pourraient induire en erreur les décideurs politiques, en suggérant que les myriapodes auraient un impact négatif sur les cultures, ce qui n’est pas nécessairement vrai.
Problèmes de Système et Précautions Nécessaires
Pourquoi cet article a-t-il de nouveau échappé aux vérifications ? Les éditeurs de Research Square ont signalé que leur fonction d’alerte de retrait était en réparation, les rendant responsables de la détection manuelle de ces cas problématiques.
L’Urgence d’une Réflexion
Qu’il s’agisse d’irresponsabilité ou simplement de négligence, cette réalité alarmante pour les universitaires du monde entier met en lumière les défis posés par des outils d’intelligence artificielle, certes puissants, mais également défectueux. Le fait que ces technologies se répandent dans presque tous les domaines de connaissance, y compris l’académie, nécessite une vigilance accrue de la part de tous les acteurs.
Enghoff a déclaré que tout cela « nuit à la confiance dans la littérature scientifique. »
FAQ
Qu’est-ce que le phénomène de “hallucination” chez l’IA ?
La “hallucination” fait référence à la capacité des IA comme ChatGPT à générer des informations incorrectes ou totalement fictives lorsqu’elles répondent à des requêtes, en particulier concernant des données académiques.
Comment les chercheurs peuvent-ils éviter ces erreurs ?
Les chercheurs doivent effectuer des vérifications minutieuses des sources et ne pas se fier exclusivement aux outils d’IA pour la recherche de références académiques.
Quelles sont les conséquences de l’utilisation de références fictives dans des travaux académiques ?
L’utilisation de références non vérifiables peut entraîner la discréditation des travaux, des problèmes éthiques, et nuire à la confiance dans la recherche scientifique.
Existe-t-il des lois encadrant l’utilisation des IA pour la recherche ?
Actuellement, il n’existe pas de lois spécifiques qui régissent l’utilisation des outils d’IA dans la recherche académique, mais des discussions sont en cours sur la nécessité de réglementer cette technologie.
Quelle est la réaction des institutions académiques face à ces enjeux ?
De nombreuses institutions commencent à mettre en place des politiques et des lignes directrices pour encadrer l’usage des technologies d’IA dans la recherche afin de préserver l’intégrité académique.
