La situation préoccupante chez OpenAI
Récemment, un groupe d’anciens et d’actuels employés d’OpenAI a publié une lettre ouverte dans laquelle ils affirment qu’ils sont réduits au silence lorsqu’il s’agit d’aborder des questions de sécurité concernant l’intelligence artificielle. Parmi les signataires, une prédiction alarmante a été faite : les chances que l’IA cause des destructions ou des dommages catastrophiques à l’humanité dépasseraient celles d’un simple tirage au sort.
Un ancien chercheur en gouvernance d’OpenAI, Daniel Kokotajlo, a notamment critiqué l’entreprise pour son manque de considération des sérieux risques que pourrait présenter l’intelligence générale artificielle (AGI). Lors d’une interview avec le New York Times, il a déclaré que les dirigeants d’OpenAI étaient tellement fascinés par les possibilités offertes par l’AGI qu’ils négligeaient les dangers potentiels.
Selon Kokotajlo, OpenAI est tellement enthousiaste à l’idée de développer l’AGI qu’ils se précipitent pour être les premiers à y parvenir. Il a même exprimé que la probabilité que l’intelligence artificielle mette en danger l’humanité pourrait atteindre jusqu’à 70 %. Un chiffre que très peu de personnes accepteraient dans le cadre d’événements majeurs de leur vie, mais que ces entreprises poursuivent pourtant avec détermination.
Les enjeux de la terminologie
Le terme p(doom), utilisé pour désigner la probabilité que l’IA entraîne des catastrophes pour l’humanité, est à la source de nombreuses controverses au sein du milieu de l’apprentissage machine. Kokotajlo, âgé de 31 ans, a expliqué au New York Times qu’après son arrivée chez OpenAI en 2022, il a rapidement réalisé que l’industrie pourrait atteindre un niveau d’AGI d’ici 2027, avec de graves conséquences potentielles sur notre survie.
Dans la lettre qu’il a signée avec d’autres anciens employés de Google DeepMind, Anthropic, et Geoffrey Hinton, connu comme le “parrain de l’IA”, il soutient leur droit d’alerter le public sur les risques que représente l’IA. Kokotajlo a été tellement préoccupé par ces menaces qu’il a, à plusieurs reprises, encouragé Sam Altman, le PDG d’OpenAI, à mettre l’accent sur des mesures de sécurité au lieu de se concentrer uniquement sur l’intelligence.
Cependant, au fil du temps, il a eu l’impression que ces conversations ne menaient nulle part, ce qui l’a poussé à quitter l’entreprise en avril. Dans son email de démission, il a exprimé sa perte de confiance envers OpenAI, en écrivant que le monde n’était pas préparé à accueillir une IA qui pourrait imiter les capacités humaines.
Les récents événements, avec des démissions importantes et des prévisions inquiétantes, placent OpenAI dans une situation délicate, où l’avenir semble de plus en plus sombre.
OpenAI a rapidement réagi à ces accusations, affirmant dans un communiqué qu’ils sont fiers de leur historique en matière de développement des systèmes d’IA les plus sûrs et les plus performants. Ils ont également souligné l’importance de mener des débats rigoureux sur cette technologie, engageant des discussions avec des gouvernements et des organisations de la société civile.
FAQ
Qu’est-ce que l’intelligence générale artificielle (AGI) ?
L’AGI fait référence à une intelligence artificielle capable de comprendre, d’apprendre, et d’appliquer des connaissances de manière autonome, équivalente à celle d’un être humain.
Pourquoi est-il important d’aborder les risques associés à l’IA ?
Les risques associés à l’IA, comme son développement non régulé, peuvent entraîner des conséquences catastrophiques pour l’humanité, justifiant la nécessité de mettre en place des garanties et des réglementations.
Quelles mesures de sécurité OpenAI envisage-t-il ?
OpenAI a déclaré qu’ils sont engagés à instaurer des mécanismes de sécurité, incluant des lignes d’assistance anonymes pour que les employés puissent exprimer leurs préoccupations.
Qui sont les principales figures derrière la lettre ouverte ?
Cette lettre ouverte a été signée par d’anciens et actuels employés d’OpenAI, ainsi que par des experts comme Geoffrey Hinton, qui soulignent tous la nécessité d’une discussion ouverte sur les dangers de l’IA.
Comment la communauté scientifique réagit-elle à ces préoccupations ?
La communauté scientifique est divisée, certains soutenant la nécessité d’un développement prudent de l’IA tandis que d’autres mettent en avant les bénéfices potentiels d’une innovation rapide.
