Intelligence Artificielle

Étudiante du MIT Abandonne ses Études Craignant qu’une AGI Ne Détruise l’Humanité Avant sa Obtention de Diplôme

Étudiante du MIT Abandonne ses Études Craignant qu'une AGI Ne Détruise l'Humanité Avant sa Obtention de Diplôme

L’angoisse face à l’IA

De nos jours, il semble que l’inquiétude liée à l’intelligence artificielle (IA) soit un sentiment partagé par beaucoup. Les conséquences environnementales de cette technologie suscitent des préoccupations, tandis que son utilisation est parfois justifiée pour licencier des employés. De plus, le flot d’informations erronées qu’elle génère, l’extension de la surveillance gouvernementale, et même ses effets potentiels sur la santé mentale des individus, alimentent ce climat de peur.

Des choix difficiles pour les étudiants

À une période où nombreux sont les étudiants qui quittent leurs études pour se lancer dans des start-ups d’IA, l’histoire d’une ancienne étudiante du MIT fait réfléchir. Alice Blair, qui a intégré l’établissement en 2023, a décidé de ne pas poursuivre son cursus, craignant que l’émergence d’une intelligence artificielle générale (IAG) – une IA relativement autonome et puissante – pourrait mener à l’extinction de l’humanité. Elle a exprimé son appréhension face à l’avenir, expliquant qu’elle n’était pas certaine de voir le jour de sa remise de diplôme à cause des dangers liés à l’IA.

Une nouvelle voie professionnelle

Alice Blair a trouvé une nouvelle orientation professionnelle en tant que rédactrice technique au sein d’un centre à but non lucratif consacré à la sécurité de l’IA. Elle n’envisage pas de revenir au MIT, ayant souhaité initialement établir des contacts avec d’autres personnes préoccupées par la sécurité de l’IA. Malheureusement, elle en est repartie déçue, aspirant à construire son avenir en dehors des lieux académiques traditionnels.

A lire :  AOC Propose un Projet de Loi Permettant aux Femmes de Poursuivre les Créateurs de Deepfake Pornographique

Une opinion partagée dans le milieu académique

À Harvard, Nikola Jurković, un ancien élève impliqué dans un club consacré à la sécurité de l’IA, comprend les craintes exprimées par de nombreux étudiants. Il souligne que si des carrières risquent d’être automatisées d’ici la fin de la décennie, chaque année passée à l’université peut sembler représenter une année de moins dans une carrière potentiellement très courte. Il estime d’ailleurs que la réalisation d’une IAG pourrait survenir dans quatre ans, et que l’automatisation généralisée de l’économie pourrait ne pas être éloignée, dans cinq ou six ans.

Les défis techniques de l’IA

La vision d’une IAG est un objectif majeur pour l’industrie de l’IA, mais ses réalisations sont encore loin d’être au rendez-vous. Le lancement récent d’un modèle d’IA par OpenAI a été mal reçu, et son dirigeant, Sam Altman, l’a qualifié de pierre angulaire vers l’ambition d’élaborer une intelligence plus généraliste, mais la communauté scientifique reste sceptique. Les experts pointent les difficultés techniques persistantes, telles que les hallucinations et les erreurs de raisonnement, et la plupart d’entre eux prédisent qu’une IAG ne verra pas le jour dans les cinq prochaines années.

La rhétorique autour des risques

Bien que l’industrie de l’IA soulève des risques, des experts comme Gary Marcus estiment que les craintes concernant une extinction imminente sont exagérées. En réalité, il existe des formes de nuisances que l’IA cause déjà, notamment la création d’emplois obsolètes et la dégradation de l’environnement. Les chefs d’entreprises technologiques, tout en discutant des risques, créent une image d’une technologie beaucoup plus puissante qu’elle ne l’est actuellement, influençant ainsi le discours public sur la régulation nécessaire de ces technologies.

A lire :  Centres de données de l’IA : un désastre pire que prévu

La réalité de l’automatisation

Dans la perspective apocalyptique que certains peuvent imaginer, semblable à celle des films « Matrix », où des intelligences artificielles rebelles asservissent l’humanité, il est essentiel de ne pas négliger les dégâts plus quotidiens déjà engendrés par l’IA, comme la suppression d’emplois et les impacts sur l’environnement.

FAQ

Qu’est-ce qu’une intelligence artificielle générale (IAG) ?

L’IAG désigne une forme d’intelligence artificielle capable d’effectuer n’importe quelle tâche cognitive humaine, avec une compréhension et un raisonnement comparables à ceux d’un être humain.

Quels sont les principaux risques associés à l’IA ?

Les risques incluent l’automatisation des emplois, la diffusion de fausses informations, l’augmentation de la surveillance, et des impacts environnementaux, tous alimentant un sentiment d’insécurité croissante.

Comment réguler l’IA pour éviter ces risques ?

La régulation peut passer par la mise en place de lois et de normes qui encadrent l’utilisation de l’IA, en encourageant la transparence et en imposant des principes éthiques dans le développement et l’application des technologies d’IA.

Quelles sont les solutions pour rendre l’IA plus sûre ?

Des solutions incluent le développement de protocoles de sécurité robustes, la création d’organismes de contrôle indépendants, et l’engagement des chercheurs et des entreprises à partager leurs connaissances sur les dangers potentiels.

Pourquoi est-il important de s’interroger sur l’éthique de l’IA ?

Interroger l’éthique de l’IA est fondamental pour s’assurer que son développement ne nuit pas à la société, garantissant ainsi que la technologie serve le bien commun plutôt que d’accroître les inégalités.