Le géant taïwanais Foxconn change de cap: moins centré sur l’assemblage de smartphones, davantage tourné vers les infrastructures d’intelligence artificielle. Au cœur de ce virage, de nouveaux accords avec OpenAI, Nvidia et la division robotique Intrinsic (Alphabet/Google) qui repositionnent l’entreprise au centre de la chaîne de valeur de l’IA.
De l’iPhone aux serveurs d’IA
En quelques trimestres, le métier des serveurs est devenu le principal moteur de revenus de Foxconn. Portée par l’explosion de la demande en capacité de calcul pour l’IA, l’entreprise a signé des profits records au troisième trimestre (septembre). Pendant que les iPhone continuent de faire la une, ce sont les rangées de baies informatiques qui alimentent la croissance: alimentation électrique, refroidissement, cartes, intégration, logistique — tout l’écosystème qui rend possible l’entraînement et le déploiement des modèles.
OpenAI: co-concevoir l’infrastructure de demain
Lors du Hon Hai Tech Day à Taïwan, OpenAI a annoncé un partenariat où l’équipe de Sam Altman partagera avec Foxconn une lecture fine des besoins matériels émergents de l’industrie. Objectif: transformer ces retours en conceptions, prototypes et fabrications d’équipements d’IA réalisés aux États-Unis. L’enjeu n’est pas seulement la production: c’est la vitesse de mise sur le marché, la capacité à ajuster rapidement les designs et à livrer à l’échelle. Des observateurs estiment que Foxconn est l’un des rares partenaires capables de réunir cadence industrielle, supply chain et flexibilité pour accompagner un acteur comme OpenAI.
L’usine elle-même devient intelligente: Intrinsic (Google)
Au-delà des produits, Foxconn veut infuser l’IA dans la manière de fabriquer. Sa collaboration avec Intrinsic, la branche robotique de Google (Alphabet), vise des “usines d’intelligence artificielle”: des lignes où robots, logiciels et modèles collaborent pour réorganiser en continu les opérations, réduire les temps de changement de série et améliorer la qualité. Autrement dit, l’IA ne sert pas uniquement les clients finaux; elle reconfigure le cœur industriel de Foxconn.
Nvidia: accélérer le déploiement à grande échelle
La relation avec Nvidia se renforce. Foxconn a présenté des plateaux de calcul conçus pour les puces Blackwell, dernière génération d’accélérateurs de la firme. L’objectif partagé: déployer plus vite des infrastructures d’IA avancées, en alignant design matériel, intégration et disponibilité industrielle. Du point de vue des clients, cela signifie des clusters prêts à l’emploi livrés plus rapidement, avec une meilleure densité de calcul et une efficacité énergétique optimisée.
Ce que cela change pour l’industrie
- Pour Foxconn: une diversification assumée, moins dépendante des cycles des smartphones et plus ancrée dans les dépenses d’infrastructures des entreprises.
- Pour l’écosystème IA: un acteur industriel capable de standardiser et de scaler du matériel critique, tout en s’ouvrant à des fabrications localisées (notamment aux États-Unis).
- Pour la concurrence: une pression accrue sur les délais d’exécution, l’intégration verticale et l’optimisation de la chaîne d’approvisionnement.
- Pour les clients finaux: des capacités de calcul livrées plus tôt, avec des options de personnalisation et des garanties de qualité liées aux processus de production de Foxconn.
En résumé
Foxconn se repositionne au centre du boom actuel de l’IA: fournir les serveurs, concevoir de nouveaux équipements, robotiser ses usines, et s’adosser aux leaders comme OpenAI et Nvidia pour avancer plus vite que le marché. Un changement de trajectoire qui transforme autant son offre que son outil industriel.
FAQ
Qu’est-ce qu’une « usine d’IA » concrètement ?
C’est une installation où l’automatisation et les modèles d’IA pilotent les flux: ordonnancement dynamique, vision pour le contrôle qualité, robots reconfigurables, maintenance prédictive, et optimisation énergétique. Le résultat visé: plus de flexibilité et des cycles de production raccourcis.
Quels types d’équipements Foxconn pourrait fabriquer aux États-Unis ?
De manière plausible: des serveurs GPU, des châssis haute densité, des systèmes de refroidissement liquide, des modules de réseau haut débit (intra‑datacenter), et des baies de stockage optimisées pour l’IA — en fonction des besoins exprimés par les clients.
Pourquoi OpenAI a‑t‑elle intérêt à ce partenariat ?
Pour gagner en vitesse, sécuriser la capacité industrielle, co‑concevoir du matériel sur mesure et réduire le temps entre l’idée et le déploiement à grande échelle, tout en gardant un haut niveau de confidentialité sur ses architectures.
En quoi les puces Blackwell de Nvidia sont importantes ?
Elles visent des performances nettement supérieures pour l’entraînement et l’inférence, avec une meilleure efficacité par watt et des interconnexions plus rapides — crucial pour des clusters massifs.
Quels défis Foxconn devra‑t‑elle surmonter ?
La disponibilité des composants, la gestion thermique et énergétique, les contraintes géopolitiques, la qualité à grande échelle et la rareté des talents en ingénierie d’IA et en robotique industrielle.
