Pourquoi tant de doutes autour des data centers d’IA
Depuis l’été, un gestionnaire de fonds, Harris “Kuppy” Kupperman (Praetorian Capital), met en cause l’économie des data centers d’IA. L’image à la mode les compare aux « pelles » de la ruée vers l’or: les puces et l’infrastructure qui les entourent seraient l’équipement indispensable pour extraire de la valeur. Sauf que, d’après lui, la promesse de profits rapides ressemble davantage à un mirage.
Son point central est simple: ces centres coûtent cher, et leurs composants se démodent ou s’usent trop vite. Entre l’innovation fulgurante qui rend le matériel obsolète et l’usage intensif qui le fatigue, la période pendant laquelle ces actifs créent réellement de la valeur serait bien plus courte que prévu. Résultat: l’addition grimpe, alors que les revenus associés à l’IA progressent beaucoup moins vite que l’investissement.
Ce que l’industrie lui a appris… et qui rend le tableau encore plus sombre
Après sa première analyse, Kupperman a reçu des retours d’un grand nombre de professionnels du secteur. Surprise: même des responsables expérimentés admettent ne pas voir clairement comment la mathématique financière peut fonctionner à grande échelle. Autrement dit, l’incertitude ne vient pas seulement d’un observateur extérieur; elle est partagée par des acteurs qui vivent ce marché au quotidien.
Surtout, Kupperman reconnaît avoir surestimé la durée d’amortissement des équipements. Il partait de l’idée d’un cycle de dix ans. Or, l’avancée des architectures d’IA et la cadence des renouvellements ramènent la durée de vie utile de l’infrastructure physique entre 3 et 10 ans au mieux — souvent plus proche du bas de la fourchette. Plus la durée est courte, plus il faut investir souvent pour rester compétitif, plus la rentabilité s’éloigne.
Les chiffres 2025 qui ne collent pas
Dans son premier calcul, Kupperman estimait qu’il faudrait environ 160 milliards de dollars de revenus pour simplement atteindre le point mort en 2025, en supposant une marge brute très favorable de 25 %. Problème: les revenus réellement attribuables à l’IA tournent, selon lui, autour de 20 milliards par an, un écart vertigineux.
En intégrant une durée de vie plus réaliste des actifs et des coûts plus lourds que prévu, il revoit la barre encore plus haut: l’industrie aurait besoin plutôt de 320 à 480 milliards de dollars de revenus rien que pour couvrir les dépenses d’investissement de l’année. L’optimisme s’effrite quand l’ampleur du décalage entre dépenses et revenus apparaît noir sur blanc.
2026: l’effet boule de neige
Et 2025 n’est que le début. De nouveaux data centers sont attendus par centaines en 2026. En cumulant ces deux années et en reprenant sa logique de calcul, Kupperman estime qu’il faudrait autour de 1 000 milliards de dollars de revenus pour atteindre le seuil de rentabilité — et bien davantage pour dégager un retour sur investissement jugé acceptable.
Autrement dit, passer à l’échelle n’arrange rien si l’équation de base est déficitaire. Au contraire: un problème sectoriel peut se transformer en vulnérabilité macroéconomique si la frénésie d’investissements se poursuit sans flux de revenus adéquats.
Le verdict des sceptiques
Pour les observateurs prudents, la question n’est plus de savoir si l’IA est survendue, mais quand la réalité des chiffres rattrapera le récit. Ils s’attendent moins à une correction douce qu’à un choc de confiance si les promesses de monétisation tardent encore.
En parallèle, d’autres signaux faibles apparaissent: dans certaines grandes entreprises, l’usage effectif de l’IA semble déjà reculer, ce qui nourrit le doute sur le rythme — et l’ampleur — des revenus à venir.
Ce qui use vraiment les centres d’IA
- Des cycles d’innovations rapides qui rendent vite anciens les GPU et systèmes associés.
- Une exploitation 24/7 à haute intensité, avec d’énormes contraintes de refroidissement et d’énergie.
- Des architectures logicielles et matérielles qui évoluent, nécessitant des réinvestissements fréquents pour rester compétitif.
Pourquoi la marge ne suffit pas
Même avec une marge brute généreuse, la combinaison d’un CAPEX massif, d’amortissements accélérés et de coûts opérationnels élevés (énergie, maintenance, réseau, personnel) écrase la rentabilité si les revenus réellement liés à l’IA ne suivent pas au même rythme.
FAQ
Que signifie “marge brute” dans ce contexte ?
C’est la part du chiffre d’affaires qui reste après les coûts directs de fourniture du service (infrastructure, énergie imputée au service, licences, etc.). Elle ne couvre pas les frais généraux, ni le renouvellement accéléré du matériel, ni le coût du capital.
Quels leviers peuvent améliorer l’économie des data centers d’IA ?
- Augmenter le taux d’utilisation réel des machines sur la durée.
- Réduire le coût énergétique via des contrats long terme et des sites plus efficaces.
- Adopter des puces et des systèmes de refroidissement plus sobres.
- Mieux monétiser l’inférence (prix alignés sur la valeur) et diversifier les usages payants.
Qui est le plus exposé si les revenus ne décollent pas ?
Les hyperscalers très investis, certains fonds immobiliers spécialisés (si les loyers ne couvrent pas le risque), et des utilities locales qui surdimensionneraient leurs capacités pour des volumes qui n’arrivent pas.
Quels signaux suivre pour jauger la soutenabilité ?
- L’évolution des prix et de la disponibilité des GPU.
- Le taux d’utilisation des clusters IA.
- La croissance du revenu net lié à l’IA par client.
- Le coût par requête/inférence et sa trajectoire.
- Les annonces de CAPEX et leur conversion en clients récurrents.
L’IA peut-elle redevenir rentable avec le temps ?
Oui, si la productivité réelle se matérialise chez les clients (gains mesurables), si les coûts matériels et énergétiques baissent, et si la monétisation est mieux alignée sur la valeur délivrée. Sans ces trois conditions, la rentabilité restera fragile.
