Intelligence Artificielle

La plupart des humains dupés par GPT-4 lors du Test de Turing, selon les chercheurs

La plupart des humains dupés par GPT-4 lors du Test de Turing, selon les chercheurs

Passer ou échouer : Les résultats du test Turing

Des chercheurs en sciences cognitives de l’université de Californie à San Diego ont récemment mené une étude intrigante sur GPT-4 d’OpenAI, un modèle de langage avancé. Leur constat principal : plus de la moitié des participants à leur expérience ont cru que les écrits générés par GPT-4 étaient d’origine humaine. Ceci signifie que ce modèle réussit le test de Turing de manière impressionnante.

L’expérience en détail

Pour évaluer la capacité de GPT-4 à convaincre les humains de son humanité, les chercheurs ont engagé environ 500 volontaires dans des conversations textuelles de cinq minutes. Chaque participant interagissait soit avec une personne réelle, soit avec le chatbot GPT-4. Pour comprendre leurs impressions, les chercheurs ont ensuite demandé aux participants s’ils pensaient dialoguer avec un humain ou une intelligence artificielle.

Les résultats de cette expérience étaient révélateurs : 54 % des sujets pensaient converser avec un humain alors qu’ils discutaient avec la technologie d’OpenAI. Ce pourcentage démontre clairement le niveau d’illusion créé par le modèle.

L’évolution du test de Turing

Le test de Turing, conçu par le pionnier de l’informatique Alan Turing en 1950, est souvent considéré comme une expérience de pensée plutôt qu’une série de tests rigoureux. Dans sa version initiale, Turing proposait un schéma impliquant trois participants : un humain questionneur, un candidat qui pouvait être une machine ou un humain, et un observateur humain.

A lire :  Amazon dévoile Kiro, l'agent d'IA capable de coder de manière autonome pendant des jours.

Dans leur étude, les chercheurs de San Diego ont simplifié ce format en retirant l’observateur. Les 500 participants ont alors été confrontés à l’un des quatre types de témoins : un humain, GPT-3.5, GPT-4, ou le chatbot rudimentaire ELIZA des années 1960.

Les résultats étonnants

Les chercheurs avaient une hypothèse : les participants seraient en mesure de distinguer un humain d’ELIZA facilement, mais hésiteraient entre les modèles de langage d’OpenAI. Les résultats confirment cette hypothèse, avec 50 % des volontaires confondant GPT-3.5 avec une personne, tandis que seulement 22 % pensaient qu’ELIZA était un humain. Cela souligne la puissance de la technologie d’OpenAI par rapport à des systèmes plus anciens.

Réactions et implications

Bien que cette étude soit encore en attente de révision par des pairs, elle a déjà suscité un vif intérêt, notamment avec un soutien du cofondateur d’Ethereum, Vitalik Buterin, qui a affirmé sur le réseau social Farcaster que cette recherche prouvait que GPT-4 avait réussi le test de Turing.

Il est important de noter que d’autres recherches avaient déjà avancé que des modèles d’OpenAI avaient réussi ce test, mais l’approbation de Buterin rend cette étude particulièrement significative. D’attendre la validation par les pairs pour des déclarations plus solides est une étape cruciale.

Informations supplémentaires sur GPT-4 : Des révélations fascinantes suggèrent qu’OpenAI aurait formé GPT-4 avec plus d’un million d’heures de vidéos transcrites sur YouTube, ajoutant ainsi une profondeur incroyable à ses capacités.

FAQ

Quelle est l’importance du test de Turing ?

Le test de Turing est un indicateur clé de la capacité d’une machine à imiter des comportements humains, jouant un rôle crucial dans l’évaluation des intelligences artificielles.

A lire :  Meta se lance dans le trading d’électricité pour sécuriser l’énergie de ses centres de données d’IA
Quelles sont les limites de ce test ?

Il ne mesure pas forcément l’intelligence ou la compréhension, mais se concentre simplement sur le dialogue et la capacité à duper un interlocuteur.

Pourquoi OpenAI utilise-t-il des données de YouTube ?

L’utilisation de transcriptions de vidéos permet de rendre les modèles de langage plus informés et capables de traiter des sujets variés, renforçant leur compréhension contextuelle.

Quelles sont les conséquences éthiques de ces résultats ?

L’illusion de l’humanité chez les IA pose des questions importantes sur la confiance, la manipulation et l’impact sur les interactions sociales.

Peut-on considérer GPT-4 comme conscient ?

Non, malgré ses capacités avancées, GPT-4 n’a pas de conscience ni d’émotions ; il simule des dialogues basés sur des données d’apprentissage.