Les inquiétudes autour de l’IA
Il existe une multitude de scénarios alarmants concernant l’intelligence artificielle (IA), et un expert, Eliezer Yudkowsky, a récemment partagé sa vision pessimiste sur l’avenir de cette technologie. Selon lui, l’IA pourrait conduire à notre disparition, un avis relayé par Bloomberg.
Une voix controversée
Yudkowsky n’est pas un expert ordinaire dans le domaine de l’IA. Avec des déclarations provocantes, il a déjà plaidé pour des actions extrêmes, comme la destruction de centres de données liés à l’apprentissage automatique. Il exprime souvent des pensées alarmantes, comme l’a noté sa participation à une émission de Bloomberg où il a affirmé : « Nous ne sommes pas prêts, nous ne savons pas ce que nous faisons, et nous allons tous mourir. »
Des préoccupations persistantes
Les croyances liées à la fin du monde par l’IA varient en crédibilité, mais Yudkowsky les défend depuis longtemps. Ses avis pessimistes ont gagné en attention à mesure que le secteur technologique avance rapidement, rendant les scientifiques en informatique de plus en plus méfiants envers leurs créations.
Au-delà de ses propres craintes, d’autres leaders de l’industrie de l’IA soutiennent également une pause temporaire sur les avancées technologiques au-delà des capacités du modèle GPT-4, qui est la base de ChatGPT d’OpenAI. Yudkowsky souligne que nous manquons de compréhension concernant le fonctionnement interne de ce modèle, en s’interrogeant sur la signification des énormes matrices de chiffres qu’il utilise.
Éviter de se disperser
Cependant, ces angoisses, bien qu’importantes, peuvent détourner notre attention des conséquences plus immédiates de l’IA qui touchent déjà notre quotidien, comme le plagiat de masse, la displacement des travailleurs et un immense impact environnemental. Sasha Luccioni, chercheuse chez Hugging Face, souligne le danger de ce discours qui ne fait qu’élever les peurs tout en permettant aux entreprises de fuir leur responsabilité.
Sam Altman, le PDG d’OpenAI, illustre parfaitement cette ambivalence. Se décrivant lui-même comme un survivaliste inquiet, il ne cesse d’exprimer ses préoccupations face à l’IA, tout en continuant à accepter d’énormes financements de la part de Microsoft.
Bien que Yudkowsky puisse être critiqué pour ses prédictions apocalyptiques, il apparaît comme soucieux des implications éthiques de ces technologies.
FAQ
1. Quelle est l’origine des préoccupations d’Eliezer Yudkowsky ?
Yudkowsky a exprimé ses préoccupations concernant l’IA depuis des décennies, soulignant les risques potentiels de la technologie d’apprendre de manière autonome.
2. Quelles réactions ces inquiétudes suscitent-elles dans l’industrie ?
Beaucoup de leaders dans le domaine de l’IA ont commencé à soutenir des pauses dans le développement pour évaluer les conséquences éthiques et sociétales des technologies actuelles.
3. Quels sont les problèmes immédiats posés par l’IA ?
En plus des prédictions alarmantes, l’IA pose des problèmes tels que le plagiat, l’automatisation de l’emploi et des impacts significatifs sur l’environnement.
4. Y a-t-il un mouvement pour réguler l’IA ?
Oui, des appels à la régulation de l’IA se multiplient, avec des experts demandant une évaluation sérieuse des risques avant de poursuivre le développement de ces technologies.
5. Comment les entreprises abordent-elles les risques associés à l’IA ?
Certaines entreprises exploitent les peurs autour de l’IA pour minimiser leur responsabilité face aux conséquences de l’automatisation et du changement technologique.
