Intelligence Artificielle

Un Autre Chercheur d’OpenAI Départ, Lançant un Avertissement Énigmatique.

Un Autre Chercheur d'OpenAI Départ, Lançant un Avertissement Énigmatique.

Un autre départ

Cette semaine, un autre chercheur d’OpenAI a quitté l’entreprise, exprimant de manière inquiétante des préoccupations concernant le manque de transparence des « processus de prise de décision » dans le secteur de l’intelligence artificielle.

Dans une discussion publiée sur X (anciennement Twitter), Gretchen Kreuger, une ancienne chercheuse en politique chez OpenAI, a révélé sa démission, soulignant que ce choix n’a pas été facile à faire. Bien qu’elle n’ait pas fourni de détails précis quant aux raisons de son départ, elle a délivré un avertissement cryptique au sujet des problèmes de surveillance dans l’industrie de l’intelligence artificielle et de leur importance.

Gretchen a indiqué qu’il est nécessaire de travailler davantage sur des éléments fondamentaux tels que les processus décisionnels, l’responsabilité, la transparence, la documentation, l’application des politiques, l’attention apportée à notre propre technologie, ainsi que sur les mesures pour atténuer les impacts sur l’inégalité, les droits et l’environnement.

Elle a poursuivi en mentionnant que ces préoccupations sont cruciales pour les individus et les communautés, car elles influencent la manière dont divers aspects de l’avenir se dessinent, et par qui.

En résumé, les décisions des grands acteurs de l’IA ont un impact sur tous. Toutefois, en ce moment, ceux qui dirigent ces entreprises semblent être les seuls à prendre ces décisions.

A lire :  Dévoilement du Gestionnaire de l'IA de Joe Biden : Ouverture d'une Enquête Criminelle

Instabilité au sein d’OpenAI

Le départ de Kreuger survient à un moment de turbulence pour OpenAI. En effet, l’entreprise fait face à plusieurs scandales récents, notamment des accusations selon lesquelles elle aurait utilisé la voix de l’actrice Scarlett Johansson sans autorisation pour l’un de ses nouveaux produits. De plus, il se murmure que la société exerce une pression sur ses anciens employés pour qu’ils signent des accords de non-divulgation et de non-dénigrement sous peine de récupérer des actions déjà acquises.

De plus, OpenAI a connu plusieurs départs notables récemment, dont ceux de Ilya Sutskever, son ancien directeur scientifique, et de Jan Leike, un chercheur de premier plan dans l’équipe de sécurité « Superalignment », qui avait pour mission d’assurer qu’une intelligence artificielle de niveau humain ne devienne pas dangereuse.

L’absence de ces individus, qui ont joué des rôles clés dans la sécurité et l’initiation des politiques, soulève de nombreux questionnements. Il semble qu’ils aient ressenti qu’il leur était difficile d’accomplir leur mission de garantir la sécurité des produits d’OpenAI, mission qui devrait inclure la mise en place de mécanismes de responsabilité pour les dirigeants.

Kreuger a observé que l’une des pratiques habituelles des entreprises technologiques pour éviter la responsabilité consiste à semer la division parmi ceux qui sont préoccupés ou qui contestent leur pouvoir. Elle a exprimé son attachement à la prévention de telles situations.

FAQ

Quelles sont les principales préoccupations concernant le secteur de l’IA ?

Les principales préoccupations incluent le manque de transparence, la responsabilité des entreprises, et les impacts potentiels sur les droits humains et l’environnement.

A lire :  Un juge rejette la demande d’abandonner le procès alléguant que l’IA a contribué au suicide d’un adolescent de 14 ans.

Pourquoi certains chercheurs quittent-ils OpenAI ?

Des chercheurs comme Gretchen Kreuger ont quitté OpenAI en raison de préoccupations sur les processus décisionnels et le climat de travail au sein de l’entreprise.

Quels scandales récents ont marqué OpenAI ?

OpenAI a été accusée d’utiliser la voix d’une célébrité sans autorisation et de faire pression sur ses employés pour qu’ils signent des accords restrictifs.

Que vise l’équipe « Superalignment » d’OpenAI ?

Cette équipe avait pour objectif de veiller à ce que les intelligences artificielles de niveau humain ne deviennent pas dangereuses pour l’humanité.

Quel est l’impact des départs dans l’équipe de direction d’OpenAI ?

Ces départs soulèvent des questions sur la capacité de l’entreprise à assurer la sécurité de ses produits et à tenir ses dirigeants responsables de leurs choix.