Technologie

Percée « inspirée du cerveau » d’un étudiant américain: vers une solution à un défi majeur de l’IA

Percée « inspirée du cerveau » d’un étudiant américain: vers une solution à un défi majeur de l’IA

Une IA plus sobre grâce au cerveau

Former des modèles d’IA géants engloutit une quantité d’énergie considérable, en partie parce que les ordinateurs classiques déplacent sans cesse les données entre la mémoire et le processeur. Le cerveau, lui, traite et stocke l’information au même endroit, ce qui le rend bien plus économe. Une doctorante du Massachusetts Institute of Technology (MIT), Miranda Schwacke, s’inspire de ce fonctionnement pour concevoir des dispositifs capables d’imiter cette efficacité biologique.

De l’idée au laboratoire : l’ordinateur « à la manière du cerveau »

Schwacke travaille sur l’informatique neuromorphique, une approche qui reproduit le rôle des neurones et des synapses afin de rapprocher calcul et mémoire dans un même composant. L’objectif est clair : réduire les allers-retours de données et donc la consommation électrique. Dans son axe de recherche, les éléments matériels ne se contentent pas de calculer — ils traitent et mémorisent au même point, comme le fait un réseau neuronal biologique.

Des synapses ioniques qui se reconfigurent

Au sein du laboratoire de la professeure Bilge Yildiz au MIT, Schwacke met au point des synapses ioniques. Ces dispositifs changent leur comportement électrique via des réactions chimiques contrôlées. Elle s’appuie notamment sur l’oxyde de tungstène, dont elle ajuste finement les propriétés en y faisant migrer des ions de magnésium. Cette migration modifie la résistance du matériau et donc la force de passage du signal — une analogie directe avec la plasticité synaptique du cerveau. Ce travail, soutenu par une bourse MathWorks en 2023 et 2024, vise des composants capables d’apprendre en consommant bien moins d’énergie que les puces actuelles.

Un parcours guidé par l’environnement et l’énergie

Originaire de Charleston (Caroline du Sud), Schwacke a grandi auprès d’une mère biologiste marine qui étudiait l’impact des polluants sur les populations de dauphins. Voir la science servir à comprendre et à améliorer le monde a façonné sa motivation. Au lycée, elle découvre la science des matériaux et mène un projet sur des cellules solaires sensibilisées par colorant. À l’California Institute of Technology, elle approfondit l’étude des matériaux à l’échelle nanométrique et des technologies de stockage d’énergie, notamment les batteries. Ce fil rouge — l’énergie — conduit naturellement à sa recherche actuelle, à l’interface des matériaux et de l’IA.

Pourquoi c’est urgent : l’empreinte de l’IA

  • L’entraînement de grands modèles d’IA réclame d’immenses quantités d’électricité et de refroidissement, souvent gourmand en eau.
  • Un unique grand modèle de langue peut générer autant d’émissions de carbone que plusieurs voitures sur toute leur durée de vie.
  • La croissance des centres de données alimente aussi la production de déchets électroniques et soulève des questions de sécurité et de mésusage.

Dans ce contexte, des dispositifs qui unifient calcul et mémoire — comme les synapses ioniques — pourraient diminuer fortement l’énergie consommée par l’IA en limitant le trafic de données et la chaleur à dissiper.

Ce que chacun peut faire

  • Soutenir la recherche en informatique économe en énergie.
  • Demander aux entreprises tech des comptes sur leurs sources d’énergie et leurs techniques de refroidissement.
  • Favoriser des solutions d’IA conçues pour l’efficacité plutôt que la seule performance brute.

Comme le résume Schwacke, si le cerveau apprend en dépensant très peu d’énergie, alors des méthodes inspirées du cerveau peuvent nous aider à bâtir une IA beaucoup plus efficiente.

FAQ

L’informatique neuromorphique, c’est quoi concrètement ?

C’est une famille de matériels et d’algorithmes qui imitent l’architecture du cerveau. Les composants (souvent appelés « neurones » et « synapses » matériels) stockent et traitent l’information localement, ce qui limite les déplacements de données et peut réduire fortement la consommation d’énergie.

En quoi les « synapses ioniques » sont-elles différentes des puces classiques ?

Elles exploitent des mouvements d’ions à l’intérieur d’un matériau pour ajuster en continu la conductance (l’équivalent de la force d’une connexion synaptique). Cette adaptation intrinsèque est difficile à reproduire avec des architectures numériques classiques séparant mémoire et calcul.

Ces technologies peuvent-elles fonctionner en dehors des centres de données ?

Oui, leur faible consommation ouvre la voie à des usages embarqués (objets connectés, robotique, capteurs autonomes), où l’on a besoin d’apprentissage local sans connexion permanente au cloud et avec très peu d’énergie disponible.

Quels bénéfices attendre à l’échelle environnementale ?

Moins d’énergie consommée, donc moins d’émissions associées à la production d’électricité, et moins de refroidissement requis, ce qui peut aussi réduire la consommation d’eau des infrastructures. À terme, cela aide à limiter l’empreinte globale de l’IA.

Quelles compétences mènent à ce domaine ?

Un socle en science des matériaux, électrochimie, physique des dispositifs, microfabrication, complété par des notions d’apprentissage automatique et d’architecture matérielle. Les profils interdisciplinaires sont particulièrement recherchés.

Quitter la version mobile