Intelligence Artificielle

Intelligence Artificielle Émotionnelle : Un Échec Annoncé selon un Scientifique de Microsoft

Intelligence Artificielle Émotionnelle : Un Échec Annoncé selon un Scientifique de Microsoft

L’intelligence artificielle affective : une illusion ?

L’univers des intelligences artificielles s’illustre souvent par des promesses de découvertes révolutionnaires, mais cela ne s’accompagne pas toujours de résultats fiables. Des tentatives historiques pour relier émotions et mouvements faciaux se heurtent à plusieurs problèmes. En témoignent des projets récents où l’on prétend identifier la personnalité ou les émotions d’une personne rien qu’à son apparence.

Les défis de la détection des émotions

Dans ses recherches, Kate Crawford, chercheuse à l’Université de Californie du Sud, souligne que créer un algorithme capable de déterminer les émotions humaines omet des nuances culturelles importantes. Elle explique que l’idée de relier des émotions spécifiques à des expressions faciales est tombée dans l’échec, car les conclusions tirées par les scientifiques varient d’une culture à l’autre. À ce sujet, son livre, Atlas of AI, approfondit l’historique erroné des efforts menés par les scientifiques dans ce domaine.

Des tentatives infructueuses

Les scientifiques ont essayé pendant des décennies de codifier les expressions faciales associées à différentes émotions, mais sans succès. Les tentatives de créer des images idéalisées d’individus exprimant des émotions spécifiques n’ont pas pu passer le test de la diversité culturelle. Pour illustrer cette situation, Crawford évoque le projet SPOT de la Transportation Security Administration. Ce programme, mis en place après les attentats du 11 septembre, visait à détecter automatiquement les terroristes en identifiant des signes de stress ou de tromperie. Malgré un investissement de 900 millions de dollars, aucun résultat probant n’a été observé.

A lire :  Davos 2026 : L'angoisse liée à l'IA s'intensifie face aux licenciements et aux poursuites judiciaires.

Les dangers de l’automatisation des émotions

Crawford met en garde contre la normalisation de la détection des émotions par des algorithmes, en faisant écho à des pratiques pseudoscientifiques du passé. Selon elle, les émotions sont complexes et évoluent avec notre culture et nos expériences personnelles, ce qui rend toute généralisation par l’IA biaisée et peu fiable.

À lire également : Découvrez plus sur les mythes entourant la détection des émotions par l’IA dans cet article de The Atlantic.

FAQ

Qu’est-ce que l’intelligence artificielle affective ?

L’intelligence artificielle affective désigne une branche de l’IA qui tente de détecter et de comprendre les émotions humaines à travers des signaux non verbaux comme les expressions faciales, la voix ou le langage corporel.

Pourquoi ces algorithmes échouent-ils souvent ?

Ils échouent en raison des différences culturelles et contextuelles ; les émotions ne sont pas universelles et varient d’une personne à l’autre, rendant les généralisations peu fiables.

Quels sont les risques liés à l’utilisation de l’IA pour détecter les émotions ?

Utiliser l’IA pour lire les émotions peut renforcer des stéréotypes et des préjugés, et mener à des décisions injustes basées sur une compréhension erronée des émotions humaines.

Quelles alternatives existent pour évaluer les émotions ?

Des méthodes basées sur des interactions humaines et des évaluations plus qualitatives, comme les entretiens ou les observations en milieu social, peuvent fournir une évaluation plus juste et nuancée des émotions.

Que dit la recherche actuelle sur l’IA et les émotions ?

La recherche actuelle souligne la nécessité de comprendre les comportements émotionnels en tenant compte de leur complexité et des contextes culturels, plutôt que de s’en remettre uniquement à des algorithmes.

A lire :  L'IA de Google : Un Flux Ininterrompu de Contenus Erronés et Sûrs d'Eux-Mêmes