Les limites du langage des chatbots
Récemment, une étude menée par des chercheurs en philosophie de l’Université de Glasgow a révélé que les réponses fournies par des chatbots comme ChatGPT peuvent souvent être erronées ou trompeuses. Loin d’être simplement le produit d’imaginations débordantes, ces sorties textuelles peuvent être qualifiées de “bullshit”, un terme qui évoque un manque d’intérêt pour la véracité des propos.
Un vocabulaire inapproprié
Dans leur étude publiée dans la revue Ethics and Information Technology, les chercheurs soulignent que le terme “hallucination”, souvent utilisé pour décrire les erreurs des modèles de langage, est trompeur. En effet, parler d’hallucination implique qu’un agent tente de communiquer une perception ou une croyance. Pourtant, les chatbots ne possèdent pas cette capacité, car ils ne ressentent rien et n’ont pas de conscience.
Une réflexion philosophique
Ce raisonnement s’appuie sur les travaux du philosophe Harry Frankfurt et son ouvrage intitulé On Bullshit, dans lequel il décrit le bullshit comme une déclaration faite sans souci pour la vérité. Les chercheurs expliquent que ces machines souffrent de ce qu’ils appellent le “soft bullshit”. Cela signifie qu’elles produisent des informations sans intention de tromper, simplement pour générer du texte.
Les dangers de l’usage des chatbots
Les chatbots n’ont pas d’objectif malveillant ; leur seul but est de produire un texte qui ressemble à du langage humain. Par exemple, un avocat a utilisé ChatGPT pour rédiger des documents juridiques, se retrouvant face à des précédents juridiques complètement inventés. Cela témoigne des risques que comporte une dépendance accrue à ces technologies, alors que les utilisateurs pourraient ne pas être conscients des limitations de ces systèmes.
Malentendus et interprétations erronées
Les décisions des investisseurs, décideurs politiques et du grand public à l’égard de ces machines ne reposent souvent pas sur une compréhension technique approfondie, mais sur des métaphores et des idées reçues. Qualifier les erreurs des chatbots d’hallucinations envoie un message trompeur, suggérant qu’ils tentent de transmettre quelque chose, alors qu’ils ne sont que des outils de génération de texte.
Conclusion
La façon dont nous parlons des erreurs des chatbots peut avoir des conséquences bien plus profondes que l’on peut imaginer. Un nouveau vocabulaire est nécessaire pour mieux comprendre ces technologies et leurs impacts potentiels.
FAQ
Quelle est la principale critique formulée par les chercheurs ?
Les chercheurs estiment que le terme “hallucination” est inapproprié pour décrire les erreurs des chatbots, car cela laisse entendre qu’ils ont une conscience ou des croyances, ce qui n’est pas le cas.
Pourquoi les chatbots produisent-ils des erreurs ?
Les chatbots ne sont pas conçus pour vérifier la vérité de ce qu’ils génèrent. Ils visent simplement à produire un texte qui a l’apparence d’un discours humain.
Quelles sont les implications des erreurs des chatbots pour le grand public ?
Les erreurs dans les réponses des chatbots peuvent mener à de mauvaises décisions parmi les investisseurs et les décideurs, car ces derniers pourraient interpréter ces informations comme fiables.
Quelles alternatives aux chatbots pour des tâches critiques ?
Pour des tâches nécessitant précision et responsabilité, il peut être préférable de faire appel à des experts humains ou d’utiliser des systèmes avec une vérification plus rigoureuse des informations.
Comment les utilisateurs doivent-ils interagir avec des chatbots ?
Les utilisateurs doivent aborder les réponses des chatbots avec précaution, en faisant preuve de discernement et en vérifiant les informations, surtout dans des contextes critiques comme le droit ou la médecine.
