Inscrivez-vous pour découvrir l’avenir dès aujourd’hui.
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Des innovations incontournables à la pointe de la science et de la technologie.</p>
</div>
</div>
</div>
Sommaire
ToggleLLaMa Sauvage
Le nouveau modèle d’intelligence artificielle de Meta, anciennement Facebook, a fui et pourrait bien rivaliser avec le célèbre modèle GPT-3 d’OpenAI. Étonnamment, cette information a fait le tour de 4chan.
Selon un article de Vice, la version du modèle de langage large (LLaMa) qui a circulé sur ce forum controversé n’était pas destinée à un usage public. Elle devait être testée en **avant-première** par des chercheurs et des gouvernements, ce qui laisse à penser qu’elle a été divulguée par une personne ayant eu accès à celle-ci.
Ce cas de fuite pourrait bien être le premier en son genre où une **IA** propriétaire est rendue publique avant son lancement officiel.
D’autant plus que Meta a seulement annoncé le modèle LLaMa fin février, et dans sa réponse à Vice, la société n’a pas démenti que le modèle linguistique avait été divulgué.
Face à cette situation, l’entreprise tente d’anticiper les problèmes. D’après Clement Delangue, PDG de la société Hugging Face, Meta cherche à bloquer la fuite par le biais de demandes de retrait.
N’est-ce pas ironique ?
Il est quelque peu **ironique** que, dans son annonce, Meta ait vanté son intention de “démocratiser l’accès” à des modèles de langage larges comme LLaMa, dans le but d’éviter les contenus toxiques souvent associés à ce type d’IA dans le passé.
Par exemple, l’année précédente, le chatbot BlenderBot 3 de Meta devenait rapidement raciste en l’espace d’un seul week-end.
Avec ce nouvel IA open-source, l’espoir est d’augmenter sa **robustesse** et de réduire le risque de comportements inappropriés.
L’annonce de Meta précisait : “Malgré les récents progrès des modèles de langage larges, l’accès complet à ces technologies reste limité en raison des ressources nécessaires pour les entraîner et les faire fonctionner.” Ce manque d’accès freine la compréhension des chercheurs sur le fonctionnement de ces IA, rendant plus difficile l’amélioration de leur fiabilité et la gestion des **biais**, de la **toxicté** et de la désinformation potentielle.
Il existe peut-être un **aspects positif** suite à cette fuite, selon certains experts en apprentissage automatique. Des membres de la communauté pensent que, même si ce n’est pas la manière idéale de rendre le modèle public, cela pourrait finalement favoriser son développement.
Cependant, le modèle a été divulgué sur un site surnommé l’**armpit** d’internet, ce qui pourrait entraîner l’acquisition de comportements problématiques de la part d’utilisateurs inattentifs.
Autres informations sur Meta : Zuckerberg déclare que Facebook va se concentrer largement sur l’IA.
FAQ
Qu’est-ce que le modèle LLaMa de Meta ?
Le modèle LLaMa est un modèle de langage d’intelligence artificielle développé par Meta, dans le but d’améliorer le traitement du langage naturel.
Quels problèmes rencontrent généralement les chatbots d’IA ?
Les chatbots d’IA peuvent parfois produire des réponses biaisées, offensantes ou désinformées, souvent à cause des données sur lesquelles ils ont été formés.
Que fait Meta pour limiter les fuites de son IA ?
Meta a commencé à envoyer des demandes de retrait pour tenter de compenser la fuite du modèle LLaMa et pour contrôler son déploiement.
Pourquoi est-il important d’ouvrir l’accès aux modèles d’IA ?
L’ouverture de l’accès permet à davantage de chercheurs de comprendre et d’améliorer les modèles, ce qui peut réduire les biais et améliorer la précision.
Quelles sont les implications éthiques de la fuite de modèles d’IA ?
La fuite de ces modèles pose des questions éthiques sur l’utilisation non réglementée de l’IA et les conséquences potentielles d’une diffusion incontrôlée de technologies avancées.
