Intelligence Artificielle

Des Scientifiques de Stanford Reproduisent Pratiquement le GPT d’OpenAI pour Un Coût Modique de 600 $

Des Scientifiques de Stanford Reproduisent Pratiquement le GPT d'OpenAI pour Un Coût Modique de 600 $

Guerres de Clones

Mise à jour : Stanford a retiré ce projet en raison de craintes liées à sa tendance à produire de la désinformation. Plus d’informations ici…

Avec un nom cocasse et un coût de lancement dérisoire, le clone d’Alpaca GPT de Stanford ne coûte que **600 dollars** à réaliser, illustrant parfaitement la facilité avec laquelle des logiciels comme ceux d’OpenAI peuvent être reproduits.

Selon un article récemment publié par New Atlas, le **Centre de recherche sur les modèles fondamentaux** de Stanford a indiqué la semaine dernière que ses chercheurs ont **ajusté** le modèle de langage LLaMA 7B de Meta en utilisant l’API GPT d’OpenAI pour un coût dérisoire.

Le résultat est l’**IA Alpaca**, qui présente des comportements similaires à ceux du modèle text-davinci-003 d’OpenAI, également connu sous le nom de GPT-3.5, le modèle qui soutient le chatbot révolutionnaire ChatGPT développé par la firme.

Dans leur analyse budgétaire étonnamment simple, les scientifiques de Stanford ont révélé avoir dépensé **moins de 500 dollars** pour l’API d’OpenAI et **moins de 100 dollars** pour le LLaMA, selon le temps requis pour former Alpaca avec ces modèles propriétaires.

A lire :  Tesla et Optimus : Vers la Création d'une IA Générale par Elon Musk

En comparant Alpaca à d’autres modèles, les chercheurs de Stanford ont été **surpris** de constater que leurs résultats étaient très proches de ceux d’OpenAI, avec Alpaca montrant une légère supériorité, produisant des réponses généralement plus **courtes que celles de ChatGPT**.

Équilibrage

Cependant, l’IA Alpaca, comme le notent les experts du CRFM de Stanford, présente certaines **défaillances fréquentes** des modèles de langage, telles que des hallucinations, de la toxicité et des stéréotypes. Les hallucinations posent un **problème particularité**, surtout en comparaison avec text-davinci-003 d’OpenAI.

Au moment de son lancement, plusieurs passionnés de machine learning ont remarqué qu’Alpaca faisait son apparition durant ce que Lior Sinclair qualifie de « semaine la plus chargée en événements de l’IA », suivie par la sortie de GPT-4 par OpenAI et d’une nouvelle version du générateur d’images **Midjourney**.

Alors que les grandes entreprises — ainsi que celles en pleine ascension comme OpenAI — prennent des initiatives lucratives, il est indéniable de constater l’émergence de solutions comme Alpaca, bien que reposant sur l’intellect collectif de Stanford.

À découvrir sur l’IA : La démonstration impressionnante de Copilot AI par Microsoft pourrait transformer le travail de bureau pour toujours.

FAQ

Qu’est-ce que le modèle Alpaca GPT ?

Le modèle Alpaca GPT est une version ajustée du modèle de langage LLaMA de Meta, capable de produire des réponses similaires à celles générées par les modèles avancés d’OpenAI.

Pourquoi Stanford a-t-il retiré le projet Alpaca ?

Stanford a mis un terme au projet en raison de préoccupations relatives à la désinformation engendrée par l’utilisation de ce modèle.

A lire :  Il promeut l’IA au bureau… et se fait remplacer par elle.
Quels sont les principaux défauts des modèles de langage comme Alpaca ?

Les modèles de langage, y compris Alpaca, peuvent souffrir d’hallucinations, de toxicité et de reproductions de stéréotypes, ce qui soulève des problèmes éthiques et pratiques.

Quel est le coût de développement d’Alpaca ?

Le développement du clone Alpaca a coûté moins de 600 dollars, une somme très inférieure à celle généralement requise pour des modèles similaires.

En quoi Alpaca se distingue-t-il d’autres modèles comme ChatGPT ?

Bien que similaires dans leurs performances, Alpaca tend à produire des réponses un peu plus courtes que celles proposées par ChatGPT.