Inscription à la Newsletter
Ne manquez pas l’opportunité de découvrir les innovations les plus récentes en matière de sciences et technologies. Abonnez-vous dès aujourd’hui pour rester à l’avant-garde des avancées qui transforment notre futur.
Précédent Inadéquat
Récemment, OpenAI a lancé avec impatience son modèle GPT-4, en publiant un rapport technique de 98 pages. Ce document présente la dernière version de son modèle de langage (LLM), mais manque cruellement de détails sur son fonctionnement réel. Cette situation suscite des inquiétudes parmi les experts, comme le souligne Venture Beat.
Malgré un rapport aussi volumineux, il reste flou sur de nombreuses questions essentielles, ce qui a provoqué des critiques. OpenAI justifie cette opacité en évoquant des raisons stratégiques et de sécurité. Dans le rapport, il est spécifiquement mentionné qu’aucune information supplémentaire sur l’architecture du modèle, les ressources matérielles utilisées, ou la méthodologie de formation n’est fournie. En somme, OpenAI garde jalousement ses secrets, semblable à un chef qui ne veut pas partager sa recette.
Une Stratégie Risquée
William Falcon, PDG de Lightning AI et anciennement sous les ordres du scientifique en chef de l’IA chez Meta, partage ses réflexions sur la manière dont OpenAI gère la divulgation des détails de son modèle. D’après lui, cette décision met en place un précédent peu encourageant pour les jeunes startups travaillant dans le domaine de l’IA.
Il explique que cette attitude pourrait dissuader d’autres entreprises de s’engager vers une démarche open-source, car à présent, la tendance pourrait devenir de garder tout secret. Cela soulève des préoccupations quant à la sécurité des modèles d’IA qui peuvent devenir très puissants sans une supervision adéquate. Falcon fait une comparaison simple : gérer une telle IA opace serait comme réglementer une banque non supervisée, ce qui rend la tâche presque impossible.
La Nécessité de la Transparence
L’argument de Falcon est pertinent. Bien qu’il soit facile pour une entreprise de prétendre respecter les meilleures pratiques, il est essentiel de montrer ses travaux pour qu’un audit externe soit envisageable. Le document publié par OpenAI, bien qu’il soit qualifié de rapport technique, ne propose pas vraiment d’informations techniques solides. Cet état de fait, selon Falcon, est un désavantage pour tout le monde dans le domaine.
Il déclare que masquer ces informations en utilisant le terme « recherche » nuit à crédibilité du domaine scientifique de l’IA. En fin de compte, ce rapport prouve que les portes d’OpenAI restent bien fermées, et cette condition semble peu susceptible d’évoluer.
FAQ
Qu’est-ce que GPT-4 et comment se distingue-t-il des versions précédentes ?
GPT-4 est la dernière version du modèle de langage d’OpenAI, réputé pour sa capacité à comprendre et à générer du texte de manière plus performante que ses prédécesseurs, grâce à des améliorations dans l’entraînement et l’architecture.
Pourquoi OpenAI choisit-elle de garder autant d’informations secrètes ?
OpenAI mentionne des préoccupations relatives à la concurrence et à la sécurité, arguant que trop de transparence pourrait permettre à d’autres de compromettre leur avance technologique.
Quels impacts cette opacité peut-elle avoir sur le développement de l’IA en général ?
Cette manière de faire pourrait entraîner un manque de confiance dans les modèles IA, empêchant la collaboration et la recherche ouverte, essentielles pour une évolution sûre et bénéfique des technologies.
Existe-t-il des efforts pour promouvoir une approche open-source dans le domaine de l’IA ?
Oui, plusieurs entreprises et chercheurs militent pour une approche plus ouverte, partageant leurs découvertes et leur code afin d’encourager un écosystème d’innovation collaboratif.
Comment les experts réagissent-ils à la récente publication d’OpenAI ?
Les experts se montrent critiques, soulignant que l’insuffisance d’informations techniques peut nuire à la transparence nécessaire pour garantir la sécurité et l’éthique dans le développement de l’IA.
