Intelligence Artificielle

Un chercheur d’OpenAI démissionne et critique l’entreprise pour avoir supprimé l’équipe dédiée à la prévention d’une IA superintelligente menaçant l’humanité.

Un chercheur d'OpenAI démissionne et critique l'entreprise pour avoir supprimé l'équipe dédiée à la prévention d'une IA superintelligente menaçant l'humanité.
<p>
    <figcaption class="article-featured-image-caption">
        Sam Altman, directeur général d'OpenAI, participe à l'événement "Tracer la voie : L'avenir de l'intelligence artificielle" lors de la semaine des dirigeants de l'APEC à San Francisco, Californie, le 16 novembre 2023. Le sommet de l'APEC se déroule jusqu'au 17 novembre. (Photo par ANDREW CABALLERO-REYNOLDS / AFP) <em>Image : ANDREW CABALLERO-REYNOLDS/AFP via Getty Images</em>
    </figcaption>
</p>

Dissolution de l’équipe d’OpenAI

OpenAI a récemment pris une décision qui pourrait surprendre : elle a dissous l’équipe chargée de s’assurer que l’IA avancée ne représente pas une menace pour l’humanité. Cela peut sembler incroyable, mais c’est bien vrai.

La mission initiale de l’équipe

L’équipe, constituée l’été dernier, avait pour but de diriger et contrôler des systèmes d’intelligence artificielle beaucoup plus intelligents que nous. Leurs ambitions étaient élevées, et même l’entreprise avait annoncé, à l’époque, son intention d’engager des fonds et des talents pour atteindre ces objectifs.

Changements récents

Cependant, des tensions internes ont vu le jour. Ilya Sutskever et Jan Leike, les deux leaders de cette initiative, ont connu des bouleversements récents. Sutskever a quitté l’entreprise dans des conditions difficiles, ce qui a entraîné le départ de Leike en raison de décisions de gestion qu’il désapprouvait.

A lire :  I-Ajents et Intelligence Sur-Appareil : Une Réinvention Totale du Milieu de Travail

Une rupture définitive

Comme l’a rapporté Wired, l’ensemble de l’équipe de superalignement a été dissoute. Ce tournant soulève des questions quant à l’avenir de l’IA avancée et les priorités d’OpenAI.

Des voix dissidentes

Sutskever, qui a joué un rôle clé dans la gestion d’OpenAI, est resté discret après ces événements, tandis que Leike a exprimé publiquement ses frustrations. Il a expliqué qu’il était convaincu que travailler chez OpenAI était une opportunité unique, mais que les priorités de l’entreprise ont dérivé vers des produits commercialement attrayants, négligeant ainsi la sécurité.

Un appel à la responsabilité

Leike a souligné que construire des machines plus intelligentes que les humains est un défi dangereux. Il a alerté sur le fait qu’OpenAI porte une responsabilité énorme envers l’humanité, qui ne doit pas être prise à la légère. Il a également noté que l’accent sur la sécurité n’était pas à la hauteur des enjeux.

Progrès technologiques récents

Malgré ces difficultés, OpenAI a poursuivi ses innovations. L’entreprise a dévoilé une nouvelle version de ChatGPT, capable de répondre à des vidéos en direct avec une voix émotive, une innovation comparée par Altman à un film romantique sorti en 2013.

Un climat de méfiance grandissant

Des employés d’OpenAI ont fait part d’une atmosphère de méfiance grandissante. Un membre de l’équipe a partagé que la confiance à l’intérieur de l’entreprise semblait s’effriter peu à peu.

Conclusion

Ce qui semblait être une promise de recherche sûre et éthique pourrait se transformer en un défi de plus en plus complexe pour OpenAI.

FAQ

Quelles raisons ont conduit à la dissolution de l’équipe ?

La dissolution de l’équipe a été motivée par des désaccords sur les priorités de l’entreprise, surtout en ce qui concerne les investissements dans la sécurité de l’IA.

A lire :  « Articles de Sports Illustrated : Écrits par des Auteurs Fictifs et Générés par IA »

Quel est l’impact de ces changements sur l’avenir d’OpenAI ?

Avec l’élimination de l’équipe centrée sur la sécurité, OpenAI pourrait faire face à des critiques croissantes concernant la gestion des risques associés à l’IA avancée.

Qui sont Ilya Sutskever et Jan Leike ?

Ilya Sutskever est l’un des co-fondateurs d’OpenAI et un pionnier dans le domaine de l’IA. Jan Leike était également un leader essentiel au sein de l’équipe d’alignement.

Quelle est l’importance de la sécurité dans le développement de l’IA ?

La sécurité est cruciale pour éviter que des technologies avancées ne soient utilisées de manière nuisible, en veillant à ce que les systèmes d’IA restent alignés avec les valeurs humaines.

OpenAI a-t-elle d’autres projets en cours ?

Oui, OpenAI continue de développer de nouvelles technologies, notamment des mises à jour de modèles d’IA et des solutions innovantes pour des applications variées.