Intelligence Artificielle

Sam Altman Visiblement Troublé par la Réaction aux Nouvelles sur le Silence Imposé aux Anciens Employés d’OpenAI

Sam Altman Visiblement Troublé par la Réaction aux Nouvelles sur le Silence Imposé aux Anciens Employés d'OpenAI
</div>

<p>
    <figcaption class="article-featured-image-caption">
        WASHINGTON, DC - 11 JANVIER : Sam Altman, le PDG d'OpenAI, entre dans les bureaux du Président de la Chambre des États-Unis au Capitole le 11 janvier 2024 à Washington, DC. Pendant ce temps, des membres du House Freedom Caucus, sortant d'une réunion dans le bureau du Président, ont déclaré avoir discuté de l'abandon de l'accord de dépenses annoncé plus tôt dans la semaine par Johnson. (Photo par Kent Nishimura/Getty Images) <em>Image : Kent Nishimura/Getty Images</em>
    </figcaption>
</p>

Un Début Difficile pour OpenAI

OpenAI traverse une période particulièrement tumultueuse.

Une Annonce Maladroit

Récemment, la société a présenté la nouvelle version de ChatGPT 4o — précisons que le “o” signifie “omni” et non “40” — en affichant des avancées techniques impressionnantes. Cependant, lors de cette annonce, Altman a commis une erreur en comparant l’IA à « Her », un film romantique sombre de 2013, ce qui a entraîné une série de réactions négatives.

Départs de Chercheurs

Les choses se sont aggravées lorsque deux chercheurs réputés ont quitté l’entreprise dans des circonstances qui ont été perçues comme un mélange de contraintes et de dégoût. Cela a été particulièrement problématique, car ces chercheurs appartenaient à l’équipe d’OpenAI dédiée à la régulation de futures IA superintelligentes. L’un d’eux a même critiqué le manque d’engagement d’OpenAI dans ce domaine crucial.

A lire :  L'IA se spécialise en mécanique quantique pour concevoir de nouvelles molécules.

Accords de Non-Divulgation

La situation s’est encore détériorée lorsque Vox a rapporté que toute personne quittant OpenAI devait signer un accord de non-divulgation très strict si elle voulait conserver ses droits sur ses actions. Cela stipulait, entre autres, qu’elles ne pouvaient jamais critiquer l’entreprise à l’avenir, ajoutant ainsi un niveau de tension inutile.

Réactions de la Direction

Face à cette vague de critiques, la direction d’OpenAI, en particulier Altman, est passée en mode de gestion de crise.

La Réponse d’Altman

Altman a pris les devants, en mettant l’accent sur les questions liées à la propriété des actions plutôt que sur les accusations selon lesquelles OpenAI tenterait de faire taire ses anciens employés inquiets des implications éthiques de son travail.

Il a déclaré : « Nous n’avons jamais récupéré l’équité d’aucun employé, et nous ne le ferons pas si quelqu’un ne signe pas un accord de séparation. » Il a reconnu une faute de la part de l’entreprise en admettant que certains documents précédents avaient des clauses inappropriées concernant l’annulation de l’équité.

Il a ajouté : « C’est à moi de prendre la responsabilité ; c’est une des rares fois où j’ai ressenti de la gêne en dirigeant OpenAI. » Altman a promis que les formalités de sortie seraient bientôt mises à jour et a encouragé les anciens employés à le contacter s’ils avaient des préoccupations.

Communication d’Autres Dirigeants

Greg Brockman, président d’OpenAI, a également partagé une réponse longue sur les réseaux sociaux, mais celle-ci est restée vague. Il a souligné l’importance d’une communication étroite et d’une sécurité de haut niveau mais a manqué de répondre directement à la question brûlante de la liberté d’expression des anciens employés.

A lire :  À l’approche des résultats de Nvidia, les valeurs IA vacillent, mais les analystes tablent sur un rebond

Analyse de la Situation

Il est crucial de noter que les déclarations d’Altman et de Brockman ne clarifient pas si les employés peuvent désormais s’exprimer librement sur les préoccupations éthiques concernant l’approche d’OpenAI. Cela soulève des interrogations sur leur volonté de réellement entendre les critiques qui émergent.

Nous allons suivre l’évolution de cette situation avec intérêt.

Plus d’informations sur OpenAI

  • OpenAI a secrètement formé GPT-4 grâce à plus d’un million d’heures de vidéos transcrites de YouTube.

FAQ

H4 : Quels sont les impacts des départs de chercheurs sur OpenAI ?

Les départs peuvent nuire à la réputation d’OpenAI et affecter la confiance du public et des investisseurs, suscitant des interrogations sur l’engagement de l’entreprise en matière d’éthique.

H4 : Quelles sont les mesures de sécurité mises en place par OpenAI ?

OpenAI mise sur des processus rigoureux de tests et de validation pour assurer une utilisation responsable de ses technologies, tout en collaborant avec des gouvernements pour des normes de sécurité.

H4 : OpenAI envisage-t-elle d’adopter de nouvelles politiques concernant les anciens employés ?

Il semble que l’entreprise examine ses politiques de confidentialité et de communication, mais rien n’est encore confirmé quant à une éventuelle révision définitive.

H4 : Que signifie l’absence de silence imposé pour les anciens employés ?

Cela pourrait indiquer une volonté d’ouvrir le dialogue sur des préoccupations potentielles, mais il reste à voir si cela se traduira par des changements concrets dans la culture d’entreprise.

H4 : Quel est le rôle de la transparence dans la réponse d’OpenAI ?

Une plus grande transparence pourrait aider à restaurer la confiance du public et des employés, et pourrait aussi influencer positivement la perception de l’entreprise par les consommateurs et les investisseurs.

A lire :  Le Département de la Défense Met en Service l'IA Gemini de Google pour 3 Millions de Collaborateurs