Intelligence Artificielle

Un Responsable de Google AI Avertit : L’IA Représente un Danger Existentiel pour l’Humanité

Un Responsable de Google AI Avertit : L'IA Représente un Danger Existentiel pour l'Humanité

La guerre mondiale dans le cyberespace Image : Mark Stevenson/Getty Images

## Alerte Rouge

Le développement de l’intelligence artificielle représente-t-il un danger pour l’humanité ? Cette question préoccupe de plus en plus Demis Hassabis, responsable de l’IA pour Google au Royaume-Uni. Dans une récente entrevue avec The Guardian, il a exprimé ses inquiétudes en faisant des comparaisons avec le changement climatique. Selon lui, les êtres humains pourraient créer un système superintelligent qui deviendrait incontrôlable, ce qui soulève d’autres craintes potentielles.

Hassabis a déclaré : « Nous devons prendre les risques liés à l’IA aussi sérieusement que d’autres défis mondiaux majeurs, comme le changement climatique. » Il a également évoqué le risque que l’IA facilite la fabrication de bioweapons. À ses yeux, la communauté internationale a trop tardé à répondre de manière efficace face à ces défis, et nous en subissons encore les conséquences aujourd’hui. Il a donc averti que nous ne pouvons pas nous permettre la même lenteur en ce qui concerne l’IA.

Bien qu’il soit évident que l’IA pourrait être bénéfique dans plusieurs domaines, notamment la médecine, Hassabis a plaidé pour la création d’un organe indépendant pour réguler l’IA, à l’image du GIEC pour le climat. Ce point de vue est partagé même par Eric Schmidt, ancien directeur général de Google.

En effet, juste un jour après l’interview de Hassabis, Google, Microsoft, OpenAI et Anthropic ont annoncé un Fonds de Sécurité pour l’IA de 10 millions de dollars. Ce fonds a pour but d’encourager la recherche sur l’évaluation et le test des modèles d’IA les plus avancés. Hassabis a salué cette initiative dans un post sur X (anciennement Twitter), mentionnant que nous étions à un moment crucial dans l’histoire de l’IA.

Avenir à Risques

Malgré toutes ces préoccupations exprimées par les experts en IA, il est légitime de se demander à quel point ces leaders, comme Hassabis ou même des entreprises telles que Google, prennent au sérieux la sécurité et l’éthique de l’IA. En effet, il y a quelques années, en 2020, Google a renvoyé Timnit Gebru, une reconnue éthicienne en IA, ainsi que l’chercheuse Margaret Mitchell. Cette décision a été justifiée par le fait que leur article controversé ne répondait pas aux critères de publication de l’entreprise.

Cet article, maintenant considéré comme visionnaire, soulignait divers risques liés à l’IA, notamment son impact environnemental, la manière dont elle pourrait affecter les communautés marginalisées, les biais présents dans les données d’entraînement, les ensembles de données si vastes qu’ils sont difficiles à auditer, ainsi que la possibilité qu’ils soient utilisés pour tromper les gens.

Aujourd’hui, cet article a acquis une véritable légende parmi les observateurs de l’IA car il a anticipé de nombreux débats actuels. Qu’en est-il de ce potentiel IA superintelligent qui pourrait ne pas avoir à cœur nos meilleurs intérêts ?

Bien que Hassabis mette en garde contre les dangers d’une AGI (intelligence générale artificielle) débridée, il souhaite tout de même en construire une. Cela soulève des contradiction troublantes au sein du secteur de l’IA.

En savoir plus sur l’intelligence artificielle

Nouvel outil : Les artistes peuvent “empoisonner” leurs œuvres pour perturber l’IA qui se base dessus.

FAQ

Qu’est-ce que l’AGI (Intelligence Générale Artificielle) ?

L’AGI désigne une forme d’intelligence artificielle capable de comprendre, apprendre et appliquer des connaissances de manière similaire à un humain.

Quels sont les principaux risques associés à l’intelligence artificielle ?

Les principaux risques incluent la perte de contrôle sur des systèmes autonomes, la création de biais dans les algorithmes et les implications éthiques, comme la violation de la vie privée.

Pourquoi la régulation de l’IA est-elle nécessaire ?

Une régulation est essentielle pour garantir que le développement de l’IA soit éthique, sécurisé, et qu’il protège les intérêts de la société tout en minimisant les risques.

Comment les entreprises peuvent-elles collaborer pour garantir la sécurité de l’IA ?

Les entreprises, comme Google et Microsoft, peuvent travailler ensemble à des initiatives comme le Fonds de Sécurité pour l’IA, afin de partager des recherches et des meilleures pratiques.

Quel rôle la communauté internationale devrait-elle jouer concernant l’IA ?

La communauté internationale doit établir des normes et des réglementations pour encadrer le développement de l’IA, semblable à ce qui a été fait pour le changement climatique.

Quitter la version mobile