Une Perspective Critique sur l’IA
Rodney Brooks, chercheur en robotique et expert en intelligence artificielle, soulève un point crucial : nous avons largement surenchéri les capacités des modèles de langage d’OpenAI, qui servent de base au célèbre chatbot ChatGPT.
Dans une interview marquante accordée à IEEE Spectrum, il affirmera que ces outils sont beaucoup moins intelligents que ce que l’on pourrait penser. Brooks remet en question l’idée qu’ils pourraient un jour rivaliser avec les humains sur un plan intellectuel. Selon lui, nous avons commis de multiples erreurs en tentant de prédire l’avenir de l’IA.
Les Limites Actuelles de l’IA
En résumé, l’IA est-elle vraiment en voie de devenir une forme d’intelligence générale artificielle (AGI), capable de pensées semblables à celles des humains ? Brooks émet un non catégorique. Il souligne que ces systèmes n’ont pas de modèle du monde réel sur lequel s’appuyer, ils ne fonctionnent qu’en établissant des corrélations linguistiques.
Les affirmations de Brooks servent de rappel des limitations actuelles de la technologie de l’IA. Il souligne combien il est facile de donner une signification à leurs réponses, alors qu’elles ont été conçues pour imiter le langage humain, pas pour comprendre.
Illusions de Compréhension
Brooks explique que lorsque nous observons une personne accomplir une tâche, nous avons une idée précise de ses compétences et nous pouvons juger rapidement ses capacités. En revanche, la manière dont les systèmes d’IA apprennent et répondent ne permet pas ce type de généralisation. En d’autres termes, même si ces modèles donnent l’illusion de compréhension, ils n’inférent pas logiquement des significations, ce qui peut induire en erreur l’utilisateur.
Il ajoute que ce que les modèles de langage réussissent particulièrement bien, c’est à formuler des réponses qui ressemblent à ce qu’on attendrait, sans toutefois garantir la validité de ces réponses.
Les Risques de Délégation
Brooks partage également son expérience avec ces modèles, ayant essayé de les utiliser pour des tâches de codage très spécifiques. Il témoigne qu’il donne souvent une réponse avec une confiance apparente, ce qui le pousse à y croire. Cependant, dans près de la moitié des cas, cette réponse s’avère complètement erronée. Après avoir investi plusieurs heures à suivre ces indices incorrects, il en conclut que cela ne représente pas de l’intelligence. C’est simplement se référer à des informations, sans véritable compréhension.
Il conclut en exprimant son espoir que les avancées futures de cette technologie peuvent apporter des progrès fascinants, tout en précisant qu’il fait toujours la distinction entre une avancée technologique et une véritable intelligence comparable à celle d’un humain. Cela suscite des réflexions sur les dangers potentiels d’une IA qui surpasserait l’intellect humain, ce qui, selon lui, serait une situation à éviter.
FAQ
Qu’est-ce que l’intelligence générale artificielle (AGI) ?
L’AGI désigne une forme d’IA capable de comprendre, apprendre et appliquer ses compétences à une vaste gamme de tâches, de manière similaire à un humain.
Pourquoi est-il difficile de juger des capacités de l’IA ?
Les systèmes d’IA actuels manquent de connaissance contextuelle et fonctionnent principalement par imitation, ce qui limite leur capacité à interpréter le sens.
Quelles sont les applications d’IA qui réussissent actuellement ?
Des avancées notables de l’IA sont visibles dans des domaines tels que le traitement du langage naturel, la reconnaissance d’images et l’automatisation de tâches répétitives.
Quels dangers peuvent résulter d’une IA surpuissante ?
Une IA capable de surclasser l’intellect humain pourrait potentiellement causer des risques en matière de sécurité et de déontologie, entraînant des questions éthiques majeures.
Comment peut-on améliorer la compréhension de l’IA ?
Cela peut passer par le développement de modèles plus complexes, intégrant des bases de données plus riches, et une meilleure compréhension des contextes culturels et émotionnels.
