Des recherches d’Apple remettent en question les capacités de l’IA
Récemment, des chercheurs d’Apple ont publié un document alarmant qui remet en cause les prétentions de l’industrie de l’IA. Ils pointent du doigt le fait que les entreprises ont largement exagéré les capacités de leurs modèles d’IA, notamment en matière de raisonnement ou d’intelligence.
Des performances limitées sur des énigmes simples
Lors de leurs travaux, les chercheurs ont testé plusieurs modèles d’IA, tels que ceux d’OpenAI, d’Anthropic et de Google. Ils ont découvert que même les énigmes les plus simples les mettaient en difficulté. Prenons par exemple le célèbre jeu des Tours de Hanoï, qui consiste à déplacer des disques de différentes tailles entre trois piquets. Les modèles d’IA, souvent qualifiés de « grands modèles de raisonnement », ont échoué à résoudre ce problème avec moins de 80 % de succès lorsqu’il s’agissait de sept disques. Pour huit disques, ils se retrouvaient totalement perdus.
Les chercheurs ont également observé des échecs similaires dans d’autres jeux, comme Blocks World, qui demande de superposer des blocs, et River Crossing, où il faut déplacer des objets à travers une rivière tout en respectant certaines contraintes.
Un constat alarmant
L’équipe de recherche a expliqué que, malgré des tests approfondis sur diverses énigmes, les grands modèles de raisonnement souffrent d’un effondrement des performances dès que la complexité des tâches augmente. Cela soulève des préoccupations sur la capacité de ces technologies, souvent présentées comme des révolutions, à résoudre des problèmes simples dans un contexte réel.
Ces résultats soulignent une inquiétude croissante parmi les experts, qui craignent que les modèles d’IA actuels, qui décomposent les tâches en étapes simples, ne mènent à une impasse, tout cela malgré les millions investis pour leur développement. Ils révèlent aussi que, au-delà d’un certain niveau de complexité, les faiblesses de ces modèles deviennent de plus en plus évidentes, remettant en question la promesse que l’augmentation des données d’entraînement les rendrait plus intelligents.
Les réflexions de Gary Marcus
Gary Marcus, un critique de renom de l’IA, a exprimé qu’il n’était pas surpris par ces découvertes. Dans une publication récente, il a rappelé que les réseaux de neurones, bien qu’ils puissent généraliser à partir des données avec lesquelles ils ont été formés, échouent souvent dès qu’ils doivent opérer en dehors de ces limites.
À ses yeux, être bloqué par des jeux d’enfants ne cadre pas avec l’idée que l’on se fait de modèles d’IA proposés comme la prochaine avancée dans la résolution de problèmes ou la quête d’une intelligence générale artificielle (AGI).
Iman Mirzadeh, l’un des co-auteurs de l’étude, a également ajouté que même en fournissant les solutions aux modèles, ceux-ci ne parvenaient toujours pas à résoudre les énigmes, révélant ainsi un processus de réflexion qui n’était ni logique ni intelligent.
Une vision critique de l’industrie
Selon Marcus, les modèles de langage et de raisonnement actuels tentent d’englober trop de domaines, ce qui les rend inefficaces. Dans son analyse, il affirme que le document d’Apple souligne une vérité fondamentale : ces modèles qui suscitent tant d’enthousiasme ne remplacent pas de bons algorithmes traditionnels bien définis.
Pour la communauté des affaires, cela signifie qu’il ne suffit pas d’implémenter des modèles d’OpenAI de manière aléatoire sur des problèmes complexes. Sur le plan sociétal, cela soulève des inquiétudes quant à la fiabilité de l’IA générative, car ses résultats sont souvent imprévisibles.
Bien qu’il existe encore des cas d’utilisation valables pour ces technologies, Marcus conclut en soulignant que quiconque pense que les grands modèles de langage mèneront à une transformation sociétale positive à travers une AGI est dans l’illusion.
FAQ
H4 : Quels types de puzzles ont été testés par les chercheurs ?
Les chercheurs ont testé des jeux comme les Tours de Hanoï, Blocks World et River Crossing pour évaluer les capacités de raisonnement des modèles d’IA.
H4 : Quel est l’impact de ces résultats sur l’industrie de l’IA ?
Ces résultats mettent en lumière les limites des modèles actuels et pourraient freiner les investissements dans des technologies promises comme révolutionnaires.
H4 : Gary Marcus a-t-il déjà partagé des opinions similaires auparavant ?
Oui, il a publié des critiques sur les limites des modèles d’IA depuis plusieurs années, notamment depuis des recherches menées il y a plus de 26 ans.
H4 : Quel est l’objectif de l’intelligence générale artificielle (AGI) ?
L’AGI vise à créer des systèmes d’IA capables de raisonner, apprendre et résoudre des problèmes de manière comparable à l’intelligence humaine, mais ces modèles actuels semblent loin de cet objectif.
H4 : Existe-t-il des domaines où ces modèles d’IA réussissent ?
Oui, il existe des applications dans des contextes spécifiques, comme la génération de texte ou l’analyse de données, mais leur efficacité diminue avec des tâches de raisonnement complexe.
