Intelligence Artificielle

Une menace imminente : L’IA pourrait anéantir l’humanité en deux ans, selon un expert

Une menace imminente : L'IA pourrait anéantir l'humanité en deux ans, selon un expert
<p>
    <figcaption class="article-featured-image-caption">
        Image générée numériquement représentant des particules multicolores formant une silhouette d'œil sur un fond noir. <em>Image : Andriy Onufriyenko/Getty</em>
    </figcaption>
</p>

Vision du Terminator

Un célèbre chercheur en intelligence artificielle, Eliezer Yudkowsky, connu pour son pessimisme, partage ses réflexions sur l’avenir de l’humanité. Dans un entretien captivant accordé à The Guardian, il a exprimé ses inquiétudes concernant notre avenir.

Yudkowsky a exprimé qu’il ressentait que la période restante pour l’humanité pourrait s’étendre sur cinq ans plutôt que cinquante. « Si l’on me contraignait à évaluer cela en termes de probabilités, je pense que ce délai pourrait même n’être que de deux à dix ans », a-t-il déclaré.

Dans un contexte où il fait référence à notre « timeline restante », le journaliste Tom Lamont de The Guardian a suggéré qu’il s’agit de la fin de l’humanité causée par les machines, un « apocalypse à la Terminator » ou un « cauchemar de type Matrix ».

Le problème, selon Yudkowsky, réside dans l’absence de prise de conscience générale. Il souligne que « nous avons peut-être une fraction de chance de voir l’humanité survivre » et insiste sur l’urgente nécessité d’une réflexion critique sur cette problématique.

Équipe de désamorçage

L’article complet de The Guardian mérite d’être lu en entier. Lamont a interrogé de nombreuses personnalités influentes, de Brian Merchant à Molly Crabapple, toutes partageant un certain scepticisme. Ils mettent en question l’idée largement acceptée que l’avènement d’une nouvelle technologie soit inéluctable et ce, même si celle-ci est nuisible pour de nombreuses personnes.

Actuellement, l’intelligence artificielle est au centre de cette critique. Les détracteurs s’interrogent : pourquoi agir comme si son développement était inévitable alors même qu’il pourrait conduire à la destruction et à l’instabilité de nombreux emplois ?

Yudkowsky, pour sa part, présente le cas selon lequel une telle technologie pourrait représenter une menace existentielle. Ses opinions, souvent provocatrices, font écho à son parcours. Rappelons qu’il a précédemment appelé à recourir à des bombardements de centres de données pour freiner l’essor de l’IA.

Bien qu’il ait depuis amendé cette position, Yudkowsky admet qu’il soutient toujours l’idée de frapper ces installations, mais qu’il n’est plus en faveur de l’utilisation d’armes nucléaires pour atteindre cet objectif.

« Je choisirais désormais des mots plus prudents », a-t-il confié à The Guardian.

À propos de l’IA : Le petit-fils d’Oppenheimer signe une lettre affirmant que l’IA représente une menace pour la “vie sur Terre”.

FAQ

Qu’est-ce que Yudkowsky suggère comme approche face à l’IA ?

Yudkowsky souligne la nécessité d’une réflexion critique concernant l’IA, plutôt que d’adopter aveuglément les nouvelles technologies.

Pourquoi Yudkowsky pense-t-il que l’humanité pourrait être en danger ?

Il croit que l’IA pourrait engendrer des conséquences existentielles néfastes pour la société, d’où son appel à la prudence.

Existe-t-il d’autres experts partageant des avis similaires ?

Oui, plusieurs chercheurs et penseurs dans le domaine de l’IA expriment également des préoccupations concernant les effets négatifs de la technologie sur l’emploi et la société dans son ensemble.

Quelle est la réaction générale du public face à ces avertissements ?

Il y a un mélange de scepticisme et de préoccupation ; tandis que certains prennent ces avertissements très au sérieux, d’autres les considèrent comme excessifs.

Que signifie le terme “apocalypse à la Terminator” ?

Ce terme fait référence à une potentielle destruction de la civilisation humaine causée par les machines, souvent illustrée dans des œuvres de science-fiction comme “Terminator”.

Quitter la version mobile