Intelligence Artificielle

Des Lanceurs d’Alerte Accusent OpenAI de Ne Pas Avoir Respecté Ses Engagements sur la Sécurité des IA Avant Leur Lancement

Des Lanceurs d'Alerte Accusent OpenAI de Ne Pas Avoir Respecté Ses Engagements sur la Sécurité des IA Avant Leur Lancement

Danger de Délai

Les dirigeants du secteur technologique ont exprimé des préoccupations concernant les dangers potentiels des intelligences artificielles qu’ils développent, tout en insistant sur la nécessité d’une réglementation. Cependant, la sincérité de ces avertissements soulève des doutes, surtout à la lumière des récents événements impliquant OpenAI, un leader du domaine. Il apparaît que l’entreprise ne suit pas les conseils que son PDG, Sam Altman, a publiquement partagés.

Pressions et Abandon de Sécurité

Récemment, un rapport de The Washington Post a révélé que des membres de l’équipe de sécurité d’OpenAI se sont sentis contraints de précipiter les tests de leur modèle de langage GPT-4 Omni. Ce modèle est crucial, car il alimente le célèbre outil ChatGPT. Selon ces employés, la direction a jugé la sécurité de GPT-4 comme étant acquise, dans le but de respecter une date de lancement prévue pour mai. Un informateur anonyme a même divulgué que l’entreprise avait planifié sa fête de lancement sans savoir si le produit était réellement sûr.

Culture de Réaction

Cette situation n’est pas un incident isolé. En juin, un groupe d’employés actuels et anciens d’OpenAI a publié une lettre ouverte, alertant sur le fait que l’entreprise semble privilégier une course effrénée vers la domination du marché, souvent au détriment de la sécurité. Ils ont également pointé une culture de représailles rendant impossible l’expression des préoccupations relatives à la sécurité.

Normes Insuffisantes

Les récents événements mettent en lumière l’incapacité d’OpenAI à respecter les normes de sécurité énoncées par le décret exécutif sur l’IA du président Joe Biden, qui impose des lignes directrices floues sur l’autocontrôle des leaders du secteur comme Google et Microsoft. Actuellement, les entreprises sont responsables de réaliser des tests de sécurité sur leurs modèles d’IA, avant de soumettre les résultats aux autorités fédérales pour examen. Cependant, OpenAI a réduit son processus de test à une seule semaine pour le modèle GPT-4o, un délai jugé nettement insuffisant par les employés, qui ont protesté contre cette décision.

Explications Minimales

En réponse à ces accusations, OpenAI a utilisé un langage très discutable pour minimiser les critiques. Les porte-parole affirment que l’entreprise n’a pas négligé ses processus de sécurité, mais a admis que le lancement a été stressant pour les équipes. Un membre anonyme de l’équipe de préparation a tenté de défendre la situation en disant qu’il y avait eu assez de temps pour les tests grâce à des simulations réalisées en amont, mais a avoué que le temps avait été serré.

Un autre représentant a précisé qu’ils ne croyaient pas avoir ignoré les tests, mais a conclu en disant qu’il était préférable de ne plus répéter une telle expérience.

FAQ

Pourquoi OpenAI a-t-elle été critiquée récemment ?

OpenAI a été critiquée pour avoir précipité les tests de sécurité de son modèle GPT-4 pour respecter une date de lancement, soulevant des inquiétudes quant à la sécurité.

Quelle est la position du gouvernement américain sur la sécurité de l’IA ?

Le président Joe Biden a émis un décret exécutif établissant des règles de sécurité, mais ces directives sont souvent considérées comme floues et insuffisantes.

Quelles actions les employés d’OpenAI ont-ils prises face aux problèmes de sécurité ?

Des employés ont exprimé leurs préoccupations dans une lettre ouverte, alertant sur une culture de représailles qui étouffe leurs avertissements sur la sécurité.

Quels risques peuvent découler d’une IA non sécurisée ?

Une IA non sécurisée pourrait causer des dommages catastrophiques, affectant non seulement les utilisateurs, mais aussi la société dans son ensemble, en donnant lieu à des décisions dangereuses ou imprévisibles.

Comment OpenAI répond-elle aux accusations de négligence ?

OpenAI a nié avoir coupé les coins dans ses tests de sécurité et a insisté sur le stress du lancement, mais des membres anonymes soulignent que le temps consacré aux tests était insatisfaisant.

Quitter la version mobile