</div>
<p>
<figcaption class="article-featured-image-caption">
<em>Image : Hannes P Albert / picture alliance via Getty / Futurism</em>
</figcaption>
</p>
Priorité à la Sécurité
OpenAI vient d’annoncer la création d’un nouveau comité de sécurité moins de dix jours après la dissolution de son équipe de Superalignment, axée sur la sécurité, dirigée par Sam Altman, dont le rôle suscite des préoccupations.
Dans son communiqué, OpenAI a révélé qu’il s’agissait de mettre en place un “comité de sécurité”, ce qui représente une dérivation de son célèbre conseil d’administration. Celui-ci, en plus d’Altman, comprend aussi Bret Taylor, président du conseil, Adam D’Angelo, PDG et cofondateur de Quora, ainsi que l’avocate d’entreprise Nicole Seligman.
L’ancienne équipe de Superalignment, annoncée il y a à peine un an, avait pour mission de “diriger et contrôler des systèmes d’IA nettement plus intelligents que nous”. Cependant, elle a été dissoute plus tôt ce mois-ci.
La création de ce nouveau groupe se fait également dans un contexte de départs de plusieurs dirigeants clés d’OpenAI, dont Jan Leike, responsable de Superalignment, qui vient de faire part de son intention de rejoindre Anthropic, une autre entreprise du secteur, ainsi qu’Ilya Sutskever, cofondateur de l’équipe.
Dans une discussion approfondie sur l’ancienne plateforme Twitter, Leike a remarqué que l’entreprise avait dévié de sa mission initiale de sécurité. Il a exprimé que “se retirer de ce poste a été l’une des décisions les plus difficiles” qu’il ait jamais prises. Selon lui, il est crucial de trouver des moyens de contrôler des systèmes d’IA extraordinairement avancés.
Comportement et Situation du Modèle
La dissolution de l’équipe Superalignment et la constitution d’une nouvelle équipe de sécurité dirigée par Altman illustrent l’instabilité qui règne actuellement au sein de la société, soulevant des interrogations sur la capacité d’Altman à gérer des enjeux cruciaux pour l’avenir d’OpenAI.
Plus tôt ce mois-ci, Leike avait déjà fait part de ses inquiétudes, accusant OpenAI d’ignorer ses responsabilités en matière de sécurité, préférant se concentrer sur des produits attractifs.
Dans son dernier communiqué, OpenAI a laissé entendre qu’il avait “récemment commencé à former son prochain modèle d’avant-garde”, sans toutefois préciser s’il s’agit du très attendu GPT-5, une mise à jour du modèle de langage qui propulse ChatGPT. L’entreprise a exprimé son espoir que ces nouveaux systèmes permettront d’atteindre un niveau supérieur de capabilités dans la quête de l’intelligence générale artificielle (AGI).
Contrairement à la situation tumultueuse de l’automne dernier, lorsque Altman a été temporairement licencié puis rapidement réintégré, le climat au sein d’OpenAI reste mystérieux. Nous n’avons pas d’explications claires concernant les raisons derrière la dissolution de l’équipe Superalignment : s’agissait-il d’une mesure d’économie ou de désaccords internes ?
Un fait semble cependant assuré : avec Altman aux commandes de cette nouvelle équipe et l’ancien responsable parti travailler pour un concurrent, il est probable que des tensions internes persistent.
FAQ
Qu’est-ce que le comité de sécurité d’OpenAI ?
Le comité de sécurité est une nouvelle entité créée pour superviser les questions de sécurité et de sûreté liées aux systèmes d’IA développés par OpenAI, suite à des préoccupations croissantes sur la gestion de l’IA.
Pourquoi l’équipe Superalignment a-t-elle été dissoute ?
La dissolution semble résulter de conflits internes et de priorités divergentes au sein de l’organisation, bien que les raisons exactes demeurent floues.
Qui sont les membres du nouveau comité de sécurité ?
En plus de Sam Altman, le comité inclut des figures telles que Bret Taylor, Adam D’Angelo et Nicole Seligman, représentant un mélange d’expertise en technologie et en droit.
Quel est l’avenir des projets d’IA chez OpenAI ?
OpenAI prévoit de continuer à développer des modèles avancés, avec l’ambition d’atteindre l’intelligence générale artificielle, mais des défis organisationnels subsistent.
Comment la situation actuelle pourrait-elle impacter le secteur de l’IA ?
La turbulence interne d’OpenAI pourrait influencer non seulement la direction de cette entreprise, mais aussi le paysage global de l’intelligence artificielle, selon la manière dont elle aborde les questions de sécurité et de responsabilité.
