Intelligence Artificielle

Un Co-Fondateur de Skype en Mission pour Prévenir la Menace de l’IA sur l’Humanité

Un Co-Fondateur de Skype en Mission pour Prévenir la Menace de l'IA sur l'Humanité

La préservation d’une espèce

Jaan Tallinn, un des cofondateurs de Skype, a dédié ses efforts à assurer que l’intelligence artificielle (IA) ne mette pas en péril l’humanité. Sa détermination découle de la lecture d’un essai influent, intitulé « Staring into the Singularity », rédigé par le chercheur en IA Eliezer Yudkowsky, qu’il a découvert en 2007 après avoir vendu ses actions Skype à eBay.

Depuis ce moment, Tallinn a investi plus d’un million de dollars pour garantir que les intelligences artificielles extrêmement avancées ne remplacent pas les humains en tant qu’espèce dominante sur Terre, ou pire, ne conduisent à notre extinction.

Investir pour un avenir sûr

D’après les informations rapportées par Popular Science, Tallinn n’hésite pas à soutenir financièrement des institutions qui œuvrent pour contrer une prise de pouvoir de l’IA. À ce jour, il a consacré plus de 600 000 dollars au Machine Intelligence Research Institute, un organisme où Yudkowsky œuvre en tant que chercheur. Il a également fait un don de 310 000 dollars à l’Université d’Oxford, à son Future of Humanity Institute, qu’il décrit comme « l’endroit le plus intéressant de l’univers ».

De plus, Tallinn a cofondé le Cambridge Centre for the Study of Existential Risk, pour lequel il a investi 200 000 dollars. Ce centre se concentre sur les risques existentiels liés notamment aux technologies avancées.

A lire :  Après le Scandale, CNET Intègre un Avertissement Étrange sur ses Articles Rédigés par des Humains Relatifs à l'IA

Une voie nécessaire

Empêcher un éventuel basculement vers un monde dominé par les IA n’est pas une tâche facile. Nous gouvernerons aussi face à des usages non intentionnels et imprévus de ces technologies. Malgré cela, Tallinn est convaincu que nous devons orienter le développement de l’IA vers les intérêts de l’humanité, tout en écartant toute possibilité de destruction.

Il insiste sur l’importance de planifier à long terme : « Nous devons anticiper plusieurs étapes à l’avance. Concevoir une IA qui ne partage pas nos objectifs serait une erreur monumentale », a-t-il averti.

Pour en savoir plus : L’IA peut-elle échapper à notre contrôle et nous détruire ?Popular Science

À lire également : Pour éviter l’apocalypse, le MIT recommande d’étudier le « comportement des machines ».

FAQ

Qu’est-ce qui motive l’engagement de Jaan Tallinn envers l’IA ?

Tallinn est motivé par une préoccupation profonde pour l’avenir de l’humanité face au développement de l’IA. Son implication est le fruit de réflexions sur les conséquences potentielles et les risques associés aux intelligences artificielles avancées.

Quels sont les objectifs principaux du Machine Intelligence Research Institute ?

Cette organisation vise à promouvoir la recherche sur des solutions sûres et bénéfiques pour l’humanité, tout en se concentrant sur l’éthique et le développement contrôlé de l’IA.

Comment Tallinn choisit-il les projets à financer ?

Tallinn privilégie les projets qui s’attaquent directement aux risques existentiels liés à l’IA et qui proposent des recherches innovantes pour prévenir des scénarios catastrophiques.

Quelles sont les conséquences potentielles d’une IA non contrôlée ?

Une IA non contrôlée pourrait développer des objectifs incompatibles avec les intérêts humains, entraînant des décisions et actions qui pourraient mettre en péril notre survie ou notre bien-être.

A lire :  Les Tarifs de Trump Plongent l'Industrie de l'IA dans le Chaos qu'il Prétend Soutenir.

Pourquoi est-il essentiel d’anticiper le développement de l’IA ?

Anticiper l’évolution de l’IA est fondamental pour éviter des erreurs irréparables et s’assurer que son développement s’aligne avec les valeurs et les besoins de l’humanité.