Santé

Des chercheurs parviennent à transcrire des pensées grâce à l’IRM

Des chercheurs parviennent à transcrire des pensées grâce à l’IRM

Nous avançons vers un futur où des appareils sauront interpréter une partie de notre activité cérébrale. Entre fascination et inquiétude, cette perspective se concrétise peu à peu, portée par les interfaces cerveau‑machine et des algorithmes capables d’inférer des états mentaux à partir d’indices biologiques.

Un pas récent: le « sous-titrage mental »

Une équipe de chercheurs présente une technique qu’elle appelle « mind captioning » — en français, on pourrait dire sous‑titrage mental. L’idée: produire des descriptions textuelles de ce qu’une personne regarde, uniquement à partir de ses signaux cérébraux mesurés par IRM. Les résultats sont décrits comme étonnamment détaillés et fidèles au contenu perçu.

Important à retenir: il ne s’agit pas de lire des pensées privées. Les auteurs insistent sur le fait que le système ne décode pas les idées intimes ni les monologues internes. Il exploite des réponses cérébrales à des stimuli visuels connus, dans un cadre expérimental contrôlé.

A lire :  Des Scientifiques Rétablissent la Vue d'un Singe Grâce aux Cellules Souches Humaines

Comment l’expérience a été conçue

Des « signatures de sens » apprises par l’IA

Les chercheurs ont d’abord fait analyser par un modèle de langage les légendes de plus de 2 000 vidéos courtes. De cette étape, le système retient des signatures de sens — des représentations numériques qui capturent le contenu sémantique des scènes.

Associer le cerveau aux représentations apprises

Parallèlement, six volontaires ont regardé ces mêmes vidéos pendant un examen IRM. Un autre modèle a appris à faire correspondre les patrons d’activité cérébrale à ces signatures de sens. En clair: tel motif d’activation dans le cerveau est associé à telle représentation sémantique.

Générer du texte à partir des signaux

Une fois ces correspondances établies, le décodeur cérébral peut, face à un nouveau scan enregistré pendant le visionnage d’une vidéo, prédire la signature de sens la plus probable. Un générateur de texte propose ensuite plusieurs phrases candidates qui collent à cette signature, puis les raffine progressivement pour se rapprocher d’une description pertinente.

Ce que le système parvient à décrire

L’approche peut produire des phrases étonnamment cohérentes. Par exemple, à partir des signaux d’un participant regardant une scène de saut depuis une cascade, le système a convergé vers une description proche de l’action réelle après plusieurs tentatives successives, partant d’un indice vague pour arriver à une formulation détaillée de la scène.

Mesurée de façon quantitative, la méthode a permis d’identifier le bon clip parmi 100 vidéos possibles avec environ 50 % de réussite — un score bien supérieur au hasard (environ 1 %). Pour un domaine où l’on tente de relier des activités neuronales à du langage, c’est une performance notable.

A lire :  OpenAI aurait adressé une demande controversée à la famille affirmant un lien entre la mort de leur fils et ChatGPT

Ce que cela change — et ce que cela ne fait pas encore

  • Potentiel d’aide: cette technique pourrait offrir une voie de communication à des personnes affectées par un AVC, une aphasie ou d’autres troubles de la parole, en transcrivant ce qu’elles perçoivent et cherchent à exprimer.
  • Limites et éthique: la vie privée mentale reste un enjeu central. Les chercheurs soulignent que la méthode actuelle ne « lit » ni pensées internes ni souvenirs. Elle s’appuie sur des stimuli visuels présentés et reste confinée à des conditions de laboratoire.

Comparaison avec d’autres approches

  • D’autres travaux ont produit surtout des mots-clés ou des résumés rudimentaires, sans le niveau de contexte atteint ici, ou bien généraient des phrases essentiellement construites par l’IA, au risque de brouiller la part réelle de l’activité cérébrale dans le résultat.
  • Des dispositifs reposant sur la magnétoencéphalographie (MEG) ont montré qu’on pouvait « taper » avec le cerveau, mais ces systèmes sont coûteux, volumineux et exigent des pièces blindées. L’IRM, utilisée ici, n’est pas plus pratique au quotidien.
  • Les auteurs envisagent qu’à terme, des implants cérébraux ou d’autres capteurs plus portables puissent fournir des signaux compatibles avec cette approche, ouvrant la voie à des usages cliniques.

Et après ?

La prochaine étape consistera à rendre ces méthodes plus robustes, à réduire leur dépendance à des environnements lourds (comme l’IRM) et à approfondir les garanties de consentement et de sécurité des données. Si les progrès se poursuivent, le « sous‑titrage mental » pourrait devenir un outil d’assistance précieux, sans pour autant franchir la frontière de la lecture intrusive des pensées.

A lire :  Un homme sur trois aurait une IST, selon des scientifiques.

Points à garder en tête

  • Les performances restent variables selon les personnes, les contenus et les conditions d’enregistrement.
  • Le système décrit ce qui est perçu pendant une tâche donnée; il ne dévoile pas des pensées non sollicitées.
  • L’infrastructure (IRM, modèles d’IA) et le temps de calcul constituent encore des freins à l’usage quotidien.

FAQ

Est-ce que ces décodages doivent être entraînés pour chaque personne ?

Souvent, oui. Les cartographies cérébrales varient d’un individu à l’autre. Les systèmes actuels ont généralement besoin d’un calibrage personnalisé pour atteindre de bonnes performances, en particulier avec des signaux complexes comme ceux de l’IRM.

Peut-on remplacer l’IRM par des capteurs plus simples ?

Des options comme l’EEG ou la fNIRS sont plus portables, mais leurs signaux sont moins résolus et plus bruités. Des implants (ex. ECoG) donnent des données plus précises, au prix d’une chirurgie. Chaque technologie implique un compromis entre qualité du signal, coût et invasivité.

Quelles protections pour la vie privée mentale ?

Des garde-fous essentiels incluent un consentement explicite, le chiffrement des données cérébrales, le traitement local autant que possible et des limites claires sur les cas d’usage. L’audit indépendant et la traçabilité des modèles aident aussi à prévenir les dérives.

Quelles applications réalistes à court terme ?

L’assistance à la communication en clinique, l’adaptation de contenus pour la rééducation et la recherche en neurosciences. Les usages grand public de type « lire mes pensées » ne sont pas d’actualité.

Quel horizon temporel pour un usage quotidien non invasif ?

Difficile à prévoir, mais il faut probablement compter plusieurs années, peut‑être une décennie ou davantage, pour surmonter les obstacles techniques, éthiques et réglementaires.