Inscrivez-vous pour découvrir le futur dès aujourd’hui
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Des innovations incontournables issues des dernières avancées en science et technologie</p>
</div>
</div>
</div>
Sommaire
ToggleUne Réflexion À Retenir
Récemment, des chercheurs de l’université de Stanford ont mis hors ligne leur projet d’intelligence artificielle dénommé Alpaca, un clone de ChatGPT. Cette décision a été motivée à la fois par des coûts élevés et, plus crucialement, par des questions de sécurité, comme le rapporte The Register.
Un porte-parole de l’institut d’Intelligence Artificielle Centrée sur l’Homme de Stanford a expliqué : « Notre intention initiale en lançant une démo était de rendre nos recherches accessibles. Nous pensons avoir principalement atteint cet objectif, et face aux coûts d’hébergement et aux faiblesses de nos filtres de contenu, nous avons décidé de retirer la démo. »
Problèmes Éprouvés
La décision de Stanford semble avoir été en partie influencée par des considérations financières. Lorsqu’Alpaca a été développé, il a été affiné à partir du modèle de langage LLaMa 7B de Meta avec un budget modeste de 600 dollars. L’objectif était de prouver qu’il est désormais possible de concurrencer OpenAI et Google à un coût réduit. Cependant, son maintien sur la plateforme s’est révélé plus onéreux que prévu.
Il est également pertinent de noter qu’Alpaca a, en fait, trop bien imité son modèle original, affichant un comportement problématique similaire : une tendance à diffuser de la désinformation, un phénomène que l’industrie de l’IA qualifie de « hallucination ».
Les chercheurs n’étaient pas surpris par ces défauts, ayant reconnu lors de l’annonce des résultats d’Alpaca que ces hallucinations étaient un mode d’échec courant, même comparé à [GPT-3.5].
Parmi ses erreurs notables : indiquer de manière incorrecte la capitale de la Tanzanie et générer de fausses informations de façon convaincante sur le fait que le nombre 42 serait la meilleure option pour entraîner des intelligences artificielles.
Un Modèle Économique
Bien que les développeurs n’aient pas détaillé toutes les façons dont Alpaca aurait pu déraper après sa mise en accès public, il est facile d’imaginer les écueils qu’il a pu rencontrer en s’appuyant sur les échecs déjà observés chez d’autres IA, ce qui laisse supposer que ces problèmes étaient largement répandus.
Cependant, pour ceux qui souhaitent explorer les résultats de ces recherches, le code d’Alpaca reste disponible sur GitHub. Malgré ses défauts, il représente certainement un progrès dans le domaine de l’ingénierie de l’IA à faible coût, que cela soit pour le meilleur ou pour le pire.
Les chercheurs ont en effet encouragé les utilisateurs à signaler les nouveaux types de défaillances rencontrées dans la démo en ligne, affirmant : « Nous espérons que la publication d’Alpaca favorisera d’autres recherches sur les modèles suivant les instructions et leur alignement avec les valeurs humaines. »
Plus d’informations sur l’IA : L’IA Bard de Google produit déjà des théories du complot ridicules.
FAQ
Qu’est-ce qu’Alpaca ?
Alpaca est un modèle d’intelligence artificielle développé par l’université de Stanford, conçu pour imiter le fonctionnement de ChatGPT tout en étant plus accessible financièrement.
Pourquoi Alpaca a-t-il été retiré en ligne ?
Les chercheurs ont cité des préoccupations concernant les coûts d’hébergement et des problèmes de sécurité, ainsi que la diffusion de désinformation, comme raisons de son retrait.
Quel était le budget pour développer Alpaca ?
Le développement d’Alpaca a été réalisé avec un budget modeste de seulement 600 dollars.
En quoi Alpaca se distingue-t-il des autres modèles ?
Alpaca a été conçu pour être une démonstration de la possibilité de rivaliser avec des modèles plus puissants à moindre coût, tout en présentant des défis similaires en matière de génération de contenu.
Peut-on encore utiliser Alpaca ?
Oui, le code source d’Alpaca est toujours disponible sur GitHub pour ceux qui souhaitent l’explorer ou l’améliorer.
