Intelligence Artificielle

Une majorité de chercheurs en IA estime que l’industrie technologique investit des milliards dans une impasse

Une majorité de chercheurs en IA estime que l'industrie technologique investit des milliards dans une impasse

Les limites de l’investissement dans l’IA

Il n’y a qu’un certain montant d’argent que l’on peut dépenser pour résoudre un problème. C’est en substance ce que soutiennent de nombreux chercheurs en intelligence artificielle dans une étude récente réalisée par l’Association pour l’Avancement de l’Intelligence Artificielle (AAAI). Interrogés sur la possibilité que des approches IA actuelles puissent mener à l’émergence d’une intelligence générale artificielle (AGI), capable de rivaliser ou de dépasser la cognition humaine, une majorité écrasante de 76 % a affirmé que cela était peu probable. Cette étude a été menée auprès de 475 chercheurs et ses conclusions remettent en question la stratégie traditionnelle de l’industrie technologique qui repose sur l’augmentation des ressources matérielles pour améliorer les modèles d’IA générative, ainsi que les centres de données nécessaires pour leur fonctionnement.

Investissements colossaux en IA

La course à l’IA voit des sommes astronomiques investies. En 2024, l’investissement dans l’IA générative a dépassé 56 milliards de dollars en capital-risque, une information rapportée par TechCrunch. Ces fonds sont principalement destinés à construire ou à faire fonctionner d’énormes centres de données indispensables aux modèles génératifs. Par exemple, Microsoft a prévu de dépenser 80 milliards de dollars pour l’infrastructure IA en 2025.

En parallèle, les besoins énergétiques liés à ces investissements sont tout aussi impressionnants. Microsoft a même conclu un accord pour alimenter ses centres de données avec une centrale nucléaire. Les grandes entreprises comme Google et Amazon ne sont pas en reste, ayant également signé des accords dans le domaine de l’énergie nucléaire.

Les limites de l’amélioration continue

L’idée que l’IA puisse être indéfiniment perfectionnée par l’expansion des ressources était déjà fragilisée. Une étude récente a révélé que le modèle d’IA développé par la startup DeepSeek pouvait rivaliser avec les chatbots multimilliardaires de l’Occident, tout en ayant des coûts de formation et de puissance nettement inférieurs.

Des signes avant-coureurs avaient déjà été observés. En novembre dernier, des rapports ont suggéré que les chercheurs d’OpenAI avaient constaté que la dernière version de leur modèle de langage GPT avait montré des améliorations beaucoup moins significatives que les versions précédentes. En décembre, le PDG de Google, Sundar Pichai, a déclaré que les gains faciles en IA étaient terminés, tout en précisant qu’il n’y avait pas de raison de ne pas continuer à augmenter les capacités.

Vers des approches innovantes

Alors que l’idée d’une augmentation illimitée semble être remise en question, certaines méthodes plus économiques et efficaces sont explorées. OpenAI a récemment adopté une approche appelée calcul au moment du test, permettant à l’IA de prendre plus de temps pour réfléchir avant de choisir la solution la plus prometteuse. Ce processus a engendré des améliorations significatives qui auraient nécessité un élargissement des ressources pour être reproduites, selon les experts.

Cependant, cette méthode ne devrait pas être considérée comme une solution miracle. Arvind Narayanan, un scientifique d’Princeton, a déclaré que cette approche ne résoudrait pas tous les problèmes. Par ailleurs, DeepSeek a développé une approche innovante appelée mélange d’experts, qui utilise plusieurs réseaux neuronaux spécialisés pour trouver des solutions, au lieu de s’appuyer sur un modèle généraliste unique.

Conclusion

Malgré tout, les engagements financiers de Microsoft, avec des milliards investis dans des centres de données, montrent que le scalabilité brute demeure la stratégie privilégiée des grandes entreprises. Les startups, quant à elles, sont condamnées à innover et à trouver des moyens de faire plus avec moins.

FAQ

Quelle est l’intelligence artificielle générale (AGI) ?

L’AGI désigne une forme d’intelligence artificielle capable d’effectuer n’importe quelle tâche intellectuelle qu’un être humain peut accomplir, en ayant la capacité de comprendre ou d’apprendre de nouvelles informations de manière autonome.

Pourquoi l’IA générative nécessite-t-elle tant d’énergie ?

L’IA générative repose sur des modèles complexes nécessitant d’énormes quantités de données et de puissance de calcul pour s’entraîner, ce qui implique d’importantes exigences énergétiques pour faire fonctionner les centres de données.

Quelles sont les implications environnementales de ces investissements en IA ?

Les investissements massifs dans des infrastructures énergivores, comme les centrales nucléaires, soulèvent des préoccupations environnementales, notamment en ce qui concerne la durabilité énergétique et les impacts écologiques.

En quoi les startups diffèrent-elles des géants technologiques en matière d’IA ?

Les startups sont souvent plus flexibles et cherchent des solutions créatives et efficaces, tandis que les géants technologiques tendent à privilégier les stratégies d’échelle brute pour optimiser leur dominance sur le marché.

Quelles alternatives aux modèles traditionnels d’IA sont explorées ?

Outre le mélange d’experts et le calcul au moment du test, d’autres méthodes impliquent l’optimisation des processus d’apprentissage ou l’intégration de systèmes d’IA plus petits et spécialisés pour un travail plus ciblé.

Quitter la version mobile