</div>
<p>
<figcaption class="article-featured-image-caption">
ANKARA, TURQUIE - 11 JUILLET : Sur cette illustration, l'icône d'OpenAI apparaît sur l'écran d'un téléphone portable à Ankara, Turquie, le 11 juillet 2024. (Photo par Didem Mente/Anadolu via Getty Images) <em>Image : Didem Mente/Anadolu via Getty Images</em> </figcaption>
</p>
Départ d’un cofondateur d’OpenAI
Un nouveau changement a eu lieu chez OpenAI avec le départ de John Schulman, un des cofondateurs et chercheur en sécurité de l’IA. Schulman a pris la décision de rejoindre Anthropic, une entreprise concurrente créée par des anciens d’OpenAI.
Annonce de son départ
Dans un message publié sur X (anciennement Twitter), il a expliqué avoir pris une « décision difficile » de quitter l’entreprise qu’il avait aidée à former, soulignant son souhait de se concentrer davantage sur l’alignement de l’IA et de revenir à un rôle plus impliqué.
Qu’est-ce que l’alignement de l’IA ?
L’alignement de l’IA est un terme de l’industrie qui désigne les efforts visant à garantir que les modèles d’IA agissent en adéquation avec les valeurs humaines. En d’autres termes, il s’agit de s’assurer que l’IA ne se retourne pas contre l’humanité. OpenAI avait mis en place une équipe appelée « Superalignment » dédiée à cette mission, même en portant des réflexions sur des IA suffisamment avancées pour surpasser l’intelligence humaine.
Événements récents chez OpenAI
Cependant, en mai, le responsable de cette équipe, Ilya Sutskever, ainsi qu’un autre chercheur, Jan Lieke, ont quitté brusquement l’entreprise, provoquant une grande inquiétude dans le secteur. Suite à cela, l’équipe Superalignment a été dissoute, et Schulman a été promu à un poste de direction en matière de sécurité.
Un départ sans rancune
Aujourd’hui, Schulman fait ses valises, mais il précise dans son message qu’il ne s’agit pas d’un problème lié à OpenAI. En effet, il a affirmé : « Mon départ n’est pas dû à un manque de soutien pour la recherche sur l’alignement à OpenAI. » Il a ajouté que sa décision était plutôt personnelle, visant à redéfinir ses priorités pour sa carrière future.
Réactions et soutien
Sa décision a été saluée par Sam Altman, le CEO d’OpenAI, qui a exprimé sa gratitude pour le travail accompli par Schulman, le qualifiant de « chercheur brillant » et d’un « ami précieux ». Malgré son soutien pour les initiatives d’alignement, il convient de noter que les pratiques de sécurité d’OpenAI ont été critiquées, même par des collaborateurs actuels ou anciens, notamment au sein d’Anthropic.
Appels à une meilleure réglementation
En juin, un groupe de personnes ayant travaillé chez OpenAI a rédigé une lettre ouverte demandant un droit d’alerte pour faire état des risques potentiels liés à l’IA. Ils pensent que la protection des lanceurs d’alerte est insuffisante et que cela nuit à la capacité de l’entreprise à gérer les risques de manière efficace. Cette lettre est toutefois arrivée après la publication d’informations révélatrices indiquant qu’OpenAI impose des NDA stricts lors des départs d’employés, accentuant l’inquiétude autour de la transparence de la société.
Soutien continu
Malgré son départ, Schulman a conclu son annonce en affirmant qu’il continuerait à encourager son ancien employeur, affirmant : « Je resterai toujours loyal envers vous tous, même en travaillant ailleurs. »
FAQ
Qu’est-ce qu’OpenAI ?
OpenAI est une entreprise de recherche en intelligence artificielle qui vise à développer des technologies avancées tout en garantissant la sécurité et l’éthique de l’IA.
Pourquoi John Schulman a-t-il quitté OpenAI ?
Schulman a souhaité se concentrer sur des aspects plus pratiques de l’alignement de l’IA en rejoignant une autre entreprise qui partage ses préoccupations.
Quelles sont les préoccupations autour de la sécurité chez OpenAI ?
Certaines critiques portent sur des NDA restrictifs qui pourraient étouffer la voix des employés concernant des risques potentiels liés à l’IA.
Qu’est-ce qu’Anthropic ?
Anthropic est une société d’IA fondée par d’anciens employés d’OpenAI, se concentrant sur une approche éthique et sécurisée du développement de l’intelligence artificielle.
Quelles initiatives de sécurité ont été mises en avant récemment ?
Un groupe de travailleurs a appelé à des améliorations dans la protection des lanceurs d’alerte pour mieux gérer les risques associés à l’IA.
