Des robots toujours plus expressifs
Les robots ont développé des compétences telles que marcher, gesticuler et communiquer, mais leur capacité à exprimer des émotions par le visage n’a pas suivi le même rythme. Récemment, une innovation importante a été réalisée : un robot a appris à mouvementer ses lèvres en synchronisation avec la parole, surmontant ainsi les expressions figées et peu naturelles.
Un pas vers le réalisme
Cette avancée s’attaque à un défi crucial dans la robotique humanoïde : créer des mouvements faciaux qui semblent convaincants lors de véritables interactions, plutôt que lors de simples démonstrations. Les chercheurs affirment que même des progrès minimes en matière de réalisme des lèvres peuvent radicalement transformer la manière dont les gens perçoivent et interagissent avec un robot.
Franchir le « vallée de l’étrange »
Malgré les progrès réalisés dans le domaine, il reste difficile d’obtenir des mouvements faciaux réalistes, en particulier autour de la bouche. La majorité des robots continuent d’utiliser des mouvements faciaux préconfigurés liés à l’audio, ce qui, selon des chercheurs de Columbia Engineering, peut sembler techniquement juste, mais est souvent perçu comme artificiel.
Hod Lipson, directeur du Creative Machines Lab à Columbia, souligne l’importance de cette perception : « On peut accepter un pas maladroit ou un mouvement de main étrange, mais une erreur faciale, même légère, sera rédhibitoire ». Il désigne ce principe intransigeant comme la « vallée de l’étrange », une zone où les humanoïdes commencent à sembler inanimés ou dérangeants pour les êtres humains.
EMO : Un robot qui apprend par observation
D’après les chercheurs, le robot nommé EMO ne fonctionne pas selon des règles faciales rigides établies dès sa conception. Au lieu de cela, il a acquis la capacité de synchroniser ses lèvres en observant. D’abord en étudiant son propre reflet, puis en regardant comment les humains parlent et chantent, ce qui lui permet de reproduire des mouvements labiaux réalistes en temps réel.
Du discours à la chanson
Lors des démonstrations, les mouvements de la bouche du robot étaient en phase avec l’audio, plutôt que de rester à la traîne ou de se fixer sur des formes prédéterminées. Au fur et à mesure que les mots étaient prononcés, ses lèvres dessinaient des vowels arrondies, des fermetures serrées et des transitions délicates, s’adaptant ainsi au rythme de la parole, et paraissant intentionnelles plutôt que mécaniques.
Cette réactivité se manifeste de manière similaire dans différentes langues et styles vocaux. Le robot a été observé en lip-sync sur des phrases prononcées dans plusieurs langues, ajustant la forme de sa bouche pour s’adapter à des sons inconnus, et ce, sans avoir besoin d’ajustements spécifiques à chaque langue. Les chercheurs notent qu’il réalise cela sans comprendre les mots, réagissant uniquement à ce qu’il perçoit.
L’impact de la chanson
L’effet est particulièrement frappant lorsqu’EMO chante. Lors d’un essai, il a interprété une chanson générée par IA présente sur son album intitulé « hello world », s’adaptant avec aisance aux variations de tonalité et de rythme tout en maintenant un mouvement des lèvres constant et expressif.
L’importance du mouvement facial dans la robotique humaine
Pour l’équipe de Columbia, des mouvements labiaux réalistes sont essentiels pour les robots qui interagissent avec des humains. Hod Lipson déclare : « La plupart des recherches en robotique humanoïde se concentrent sur les mouvements de jambes et de mains pour des activités comme marcher ou saisir, mais l’expressivité faciale est tout aussi cruciale dans les applications robotiques impliquant une interaction humaine ». Il évoque des contextes tels que l’éducation, la santé ou le soin des personnes âgées, où les humains dépendent naturellement des signaux faciaux pendant la conversation.
L’équipe a constaté que des visages expressifs représentent un canal manquant dans la communication humain-robot, véhiculant des émotions, des intentions et des temporalités en parallèle avec le discours. En l’absence de ces signaux, même les robots les plus avancés peuvent sembler lointains ou mécaniques.
Pour les robots conçus pour fonctionner en étroite collaboration avec les humains, les chercheurs soulignent que le mouvement facial est aussi crucial pour l’interaction que les mouvements corporels ou la parole.
Un projet de start-up en robotique soutenu par SoftBank a récemment levé 1,4 milliard de dollars pour développer un cerveau AI partagé pour les machines.
FAQ
Quel est le rôle de la robotique humanoïde dans la société actuelle ?
La robotique humanoïde joue un rôle croissant dans divers domaines tels que l’éducation, le soin des personnes âgées et les thérapies, facilitant l’interaction entre l’homme et la machine.
Comment les robots apprennent-ils à mouvoir leurs lèvres ?
Les robots comme EMO apprennent à synchroniser leurs lèvres en observant comment les humains parlent et chantent, sans utiliser de règles préétablies.
Pourquoi la communication non verbale est-elle importante pour les robots ?
La communication non verbale, comme les mouvements faciaux, aide à exprimer des sentiments et à établir une connexion émotionnelle, rendant les interactions plus naturelles et agréables.
Quelles sont les applications potentielles des robots expressifs ?
Les robots exprimant des émotions peuvent être utilisés dans des domaines allant des soins aux patients, à l’éducation, et même en tant que compagnons dans des environnements domestiques.
Quels défis restent à relever pour la robotique humanoïde ?
Malgré les avancées, les défis incluent la création de mouvements faciaux réalistes et la capacité à interagir de manière fluide dans des contextes multilingues et multiculturels.
