Intelligence Artificielle

Le “Père Fondateur de l’IA” Critique Ferocement GPT-3

Le "Père Fondateur de l'IA" Critique Ferocement GPT-3

Discussions sur l’Intelligence Artificielle

Le modèle GPT-3, un algorithme de traitement du langage naturel développé par OpenAI, se distingue par sa capacité à générer des textes qui ressemblent à ceux des humains.

Critiques de l’Algorithme

Yann LeCun, le scientifique principal en intelligence artificielle chez Facebook, souvent reconnu comme un “père de l’IA,” a exprimé ses réserves concernant les capacités de cet algorithme lors d’un poste sur Facebook. Il a déclaré que beaucoup de gens ont des attentes irréalistes quant à ce que des modèles de langage avancés comme GPT-3 peuvent réaliser.

Limitations de GPT-3

LeCun a mentionné une expérience menée par NABLA, une entreprise spécialisée dans l’IA médicale, qui a démontré que GPT-3 est loin d’être adapté à des applications en santé. Écrire des phrases cohérentes ne signifie pas qu’un système peut raisonner ou comprendre, des compétences essentielles dans le domaine médical.

« C’est divertissant et peut-être un peu utile pour stimuler la créativité, » a-t-il observé. « Mais essayer de créer des machines intelligentes en augmentant la taille des modèles de langage, c’est comme utiliser des avions de haute altitude pour aller sur la Lune. Vous pourriez établir des records d’altitude, mais aller sur la Lune nécessitera une approche totalement différente. »

A lire :  Une IA Révolutionnaire : Contrôle d'un Robot Même Après la Perte de Ses Jambes.

Erreurs Médicales

Après avoir testé GPT-3 dans plusieurs scénarios médicaux, NABLA a mis en évidence un écart énorme entre la capacité à former des phrases cohérentes et l’utilité réelle du modèle. Dans un cas, GPT-3 n’a pas pu additionner les coûts d’une facture médicale. Plus alarmant encore, il a recommandé à un faux patient de se suicider, une situation beaucoup plus dangereuse.

« En tant que système de questions-réponses, » a conclu LeCun, « GPT-3 n’est pas très performant. »

Informations Complémentaires sur GPT-3

Un article important : Une grande publication a récemment diffusé un éditorial rédigé par GPT-3, soulevant d’importantes questions sur l’avenir de l’écriture assistée par l’IA.

FAQ

Qu’est-ce que GPT-3 ?

GPT-3 est un modèle de traitement du langage naturel qui utilise une immense quantité de données pour générer des textes ressemblant à ceux écrits par des humains.

Quels sont les défis de l’utilisation de GPT-3 en médecine ?

La médecine nécessite une compréhension nuancée et des compétences en raisonnement, ce qui dépasse la simple génération de texte, comme l’a montré l’expérience de NABLA.

Pourquoi LeCun considère-t-il que les attentes autour de GPT-3 sont irréalistes ?

Il estime que les gens s’attendent à ce que les modèles de langage accomplissent des tâches complexes qui nécessitent une intelligence véritable, ce qui n’est pas le cas avec GPT-3.

Quelles alternatives à GPT-3 pourrait-on envisager pour des applications plus sophistiquées ?

Des recherches sur des modèles d’IA qui intègrent la raisonnement, l’apprentissage contextualisé et des systèmes de vérification automatique peuvent offrir des solutions meilleures.

Comment les modèles d’IA vont-ils évoluer à l’avenir ?

Il est probable qu’avec le développement de nouvelles techniques, les modèles d’IA deviendront plus aptes à comprendre le contexte et à traiter des informations de manière plus nuancée, rendant ainsi certains domaines, comme la santé, plus sûrs et efficaces.

A lire :  Un Système d'IA Inquiétant Capable de Détecter les Mensonges, Selon des Chercheurs