Révélations Inattendues sur OpenAI
Dans une récente interview, un ancien employé d’OpenAI a déclaré des choses surprenantes concernant les intentions de son ancien employeur en matière d’intelligence artificielle générale (AGI), en particulier en ce qui concerne la manière de générer des profits.
Une Stratégie Contestable
Leopold Aschenbrenner, un ancien chercheur en sécurité chez OpenAI, a partagé ses réflexions lors d’une longue discussion avec le podcasteur technologique Dwarkesh Patel. Il a affirmé avoir entendu d’innombrables sources au sein de l’entreprise que le leadership d’OpenAI avait, dans le passé, envisagé de déclencher une guerre d’enchères mondiale pour l’AGI, impliquant les gouvernements des États-Unis, de la Chine et de la Russie.
Aschenbrenner a précisé que la direction d’OpenAI avait proposé un plan visant à financer et vendre l’AGI en faisant en sorte que ces pays se font concurrence les uns avec les autres. Cette approche lui semblait d’un côté étonnante, d’autre part inquiétante, en raison de la volonté de l’entreprise de vendre une telle technologie à des gouvernements adverses comme ceux de la Russie et de la Chine.
Questions Morales et Éthiques
En continuant son récit, Aschenbrenner a soulevé la question de la manipulation entre ces pays : comment inciter les uns contre les autres en disant par exemple : “Si vous n’agissez pas, la Chine le fera”. Cette déclaration a suscité une réaction forte de la part de Patel, qui a qualifié la situation de “vraiment troublante”.
Troubles Internes chez OpenAI
Durant cette même interview, l’ancien chercheur a également évoqué son licenciement d’OpenAI, qu’il attribue à un mémo qu’il avait envoyé aux dirigeants de l’entreprise. Ce document mettait en garde contre le risque que le Parti communiste chinois ne vole des “secrets algorithmiques essentiels”.
Selon lui, les ressources humaines ont jugé ce mémo comme étant raciste et non constructif. Après sa diffusion, on lui a posé des questions sur sa loyauté vis-à-vis de l’entreprise. Aschenbrenner assure qu’il a été licencié pour avoir divulgué des informations après que des enquêteurs aient scruté son ordinateur et trouvé des documents qu’il avait partagés lors d’une session de réflexion sur la préparation, la sécurité et les mesures de sûreté avec des chercheurs externes.
Ce qui a particulièrement irrité HR, c’est une phrase mentionnant un planning pour l’AGI de 2027 à 2028, qu’ils ont jugée confidentielle, affirmant que son partage pouvait être considéré comme une fuite d’informations.
En réponse, OpenAI a affirmé partager l’engagement d’Aschenbrenner en faveur d’une AGI sûre, mais a exprimé son désaccord sur sa manière de caractériser leur travail. Ils ont précisé qu’ils n’avaient pas souhaité s’étendre sur les accusations de guerre d’enchères.
Aschenbrenner a terminé son entretien en soulignant qu’il ne voyait pas en quoi ce calendrier de planification était sensible, rappelant que le PDG Sam Altman en parle publiquement de manière régulière.
FAQ
Qu’est-ce que l’AGI ?
AGI ou intelligence artificielle générale est une forme d’intelligence artificielle capable de comprendre, d’apprendre et d’appliquer des compétences d’une manière comparable à celle d’un être humain.
Quel a été le rôle d’OpenAI dans le développement de l’AGI ?
OpenAI vise à développer une AGI qui soit sûre et bénéfique pour l’humanité. Ils travaillent sur des recherches pour s’assurer que cette technologie soit alignée avec des valeurs éthiques.
Pourquoi la guerre d’enchères est-elle préoccupante ?
Elle soulève des questions morales et éthiques, notamment sur les implications de vendre une technologie avancée à des gouvernements qui peuvent en avoir un usage militaire ou manipulateur.
Quelles sont les précautions prises par OpenAI concernant la sécurité ?
OpenAI met en place des mesures pour protéger ses recherches, notamment en surveillant les communications internes et en formant ses employés sur les questions de sécurité et de confidentialités.
Comment OpenAI assure-t-elle la transparence de ses projets ?
OpenAI s’efforce d’être transparent tout en protégeant des informations sensibles, en publiant régulièrement des rapports et en échangeant avec la communauté scientifique sur ses progrès et ses défis.
