Culture

Suncatcher : Google veut déployer en orbite des centres de données d’IA alimentés par l’énergie solaire

Suncatcher : Google veut déployer en orbite des centres de données d’IA alimentés par l’énergie solaire

Une vision: des centres de calcul qui tournent autour de la Terre

Imaginez des grappes de satellites qui exécutent des modèles d’IA en continu, alimentés directement par le Soleil. C’est l’ambition de Project Suncatcher, une initiative de recherche de Google qui étudie comment déployer une constellation de calculateurs en orbite pour dépasser les limites énergétiques terrestres. L’idée clé: déplacer une partie de l’entraînement et du déploiement de l’IA dans l’espace, là où l’énergie solaire est presque ininterrompue et la surface au sol n’est plus un goulot d’étranglement.

Pourquoi l’espace change la donne

  • Le Soleil fournit une puissance colossale, sans commune mesure avec la consommation électrique de l’humanité. En orbite adaptée, un panneau solaire peut produire jusqu’à 8 fois plus qu’au sol, avec une exposition quasi continue.
  • En s’affranchissant des contraintes énergétiques terrestres, une infrastructure d’IA spatiale pourrait offrir une capacité de calcul inédite tout en réduisant la pression sur les ressources et les réseaux au sol.
A lire :  L’amour 2.0 : quand les partenaires numériques bousculent l’intimité

Les briques techniques de la constellation

Des orbites pour capter le Soleil presque tout le temps

Les satellites seraient placés en orbite héliosynchrone afin d’optimiser l’ensoleillement et de diminuer la dépendance aux batteries. Cette trajectoire permet de lisser la disponibilité énergétique et de simplifier la logistique de puissance.

Un réseau optique à très haut débit

Pour faire dialoguer ces plateformes comme un seul supercalculateur, les satellites seraient reliés par des liaisons optiques en espace libre. L’objectif: atteindre des débits de l’ordre de plusieurs térabits par seconde grâce à des techniques comme le DWDM multi‑canal et la multiplexion spatiale. En volant à quelques centaines de mètres les uns des autres, ils limiteraient les pertes de signal, rendant possible un maillage dense et performant. Des essais préliminaires ont déjà montré des transmissions bidirectionnelles de 800 Gbit/s, signe que des interconnexions multi‑térabits sont envisageables.

Du calcul embarqué résilient

Au cœur des satellites, on retrouverait des TPU (Tensor Processing Units) de Google. Le Trillium TPU v6e a été exposé à un faisceau de protons de 67 MeV: aucun échec irréversible n’a été imputé à la dose testée (jusqu’à 15 krad (Si)), un résultat encourageant face aux défis de la radiation en orbite.

Ce que cela permettrait côté IA

  • Entraîner et déployer des modèles à grande échelle sans dépendre uniquement des data centers terrestres.
  • Réduire l’empreinte sur les réseaux électriques et l’immobilier au sol.
  • Créer un maillage de calcul qui, vu de l’extérieur, se comporte comme un centre de données distribué en orbite.

Feuille de route et économie

Google en est au stade de la recherche mais vise des démonstrations en vol à court terme. Avec Planet Labs, l’entreprise prévoit le lancement de deux satellites prototype d’ici début 2027 pour valider le matériel TPU et les liaisons optiques inter‑satellites en conditions réelles. Côté coûts, la tendance à la baisse du prix de lancement pourrait faire passer le kilogramme en orbite sous les 200 $ à l’horizon milieu des années 2030, rendant l’équation économique d’un « data center spatial » comparable à celle des installations terrestres.

A lire :  Grok AI diffuse des informations erronées sur l'incident de tir à Bondi Beach.

Défis à lever et impacts possibles

  • Gestion de la radiation, de la chaleur et des manœuvres rapprochées.
  • Orchestration d’un réseau optique très dense, avec une synchronisation stricte et une tolérance aux pannes.
  • Intégration avec le sol: liaisons descendantes à haut débit, latence et répartition des charges entre orbite et Terre.
  • Gouvernance: sécurité, gestion des débris, conformité réglementaire internationale.
    Malgré ces inconnues, le pari est clair: pousser l’IA au‑delà du cloud, jusqu’en orbite, pour une nouvelle ère de calcul solaire.

L’esprit “moonshot”

Fidèle à la philosophie des grands paris technologiques de Google, Project Suncatcher accepte une part d’inconnu. L’objectif n’est pas seulement de prouver que c’est faisable, mais d’ouvrir une voie où l’énergie abondante de l’espace rend possible une échelle de calcul difficile à atteindre sur Terre.

À propos de l’autrice

Forte de plus de dix ans de journalisme, Neetika Walter a couvert la politique, l’économie, la technologie et les énergies propres pour The Economic Times, ANI et Hindustan Times. Amatrice de culture contemporaine, de littérature et de poésie, elle cherche la nuance et la clarté dans ses récits. Lorsqu’elle ne court pas après l’actualité, elle lit… souvent entourée de ses chiens.

FAQ

Qu’apporterait concrètement une IA « en orbite » pour les applications au sol ?

  • Des capacités d’entraînement et d’inférence massives déportées, libérant des ressources terrestres.
  • Des traitements « près de la source » pour l’observation de la Terre (analyse d’images en temps réel avant renvoi au sol).
  • Une meilleure résilience: un maillage spatial peut continuer à opérer même en cas d’incident localisé au sol.
A lire :  Google Maps passe à la navigation conversationnelle grâce à Gemini

Comment gérer la latence entre l’espace et la Terre ?

  • Pour l’entraînement massif, la latence importe moins que le débit soutenu des interconnexions optiques.
  • Pour l’inférence sensible au temps, des stations sol multiples, des liaisons laser directes et des stratégies de cache rapprochent les résultats des utilisateurs.

La dissipation thermique n’est‑elle pas un problème dans le vide spatial ?

  • Oui: sans convection, on compte sur des radiateurs, des caloducs et des matériaux à haute émissivité. La conception thermique devient centrale pour maintenir les TPU à une température sûre.

Quelles mesures pour limiter les débris spatiaux ?

  • Conception « fail‑safe », passivation des étages, désorbitation planifiée en fin de vie et évitement actif des collisions. Le rapproché de formation implique une navigation et un contrôle de trajectoire très robustes.

Quelles premières applications sont les plus plausibles ?

  • Compression et pré‑traitement des données d’observation, inférence sur des modèles spécialisés, et expérimentations d’entraînement distribué pour évaluer coûts, fiabilité et rendement énergétique avant un déploiement à grande échelle.