Intelligence Artificielle

Un Prédicateur de l’Apocalypse AI Réévalue le Chronogramme de la Fin de l’Humanité

Un Prédicateur de l'Apocalypse AI Réévalue le Chronogramme de la Fin de l'Humanité
Le contenu et les recommandations de produits sur ADGO.ca sont
indépendants sur le plan éditorial. Nous pouvons générer des revenus lorsque vous cliquez sur des liens vers nos partenaires.
En savoir plus

L’angoisse de l’IA et ses implications pour l’humanité

Les scénarios de la fin de l’humanité par les mains de l’intelligence artificielle (IA) semblent appartenir au genre de la science-fiction, mais ils suscitent des débats sérieux parmi les experts sur leur vraisemblance.

Dans le cours de ces discussions, un nom est souvent évoqué : Daniel Kokotajlo. Cet ancien chercheur d’OpenAI et voix influente au sein de la communauté de la sécurité de l’IA a captivé l’attention mondiale avec un scénario imaginatif présenté en avril dernier, intitulé « AI 2027 ». Ce document suggérait que les systèmes d’IA, évoluant à un rythme effréné, pourraient dépasser les capacités humaines, prendre le contrôle des processus décisionnels mondiaux et potentiellement mener à l’extinction de l’humanité. Surprenant, n’est-ce pas ?

Réévaluation des prévisions

Toutefois, il est temps de ralentir un peu les craintes. Dans une mise à jour récente, Kokotajlo et ses coéquipiers commencent à réévaluer ce pronostic. Ils notent que la voie vers une IA superintelligente semble prendre plus de temps que prévu. Bien que les risques les plus graves persistent, ces experts estiment qu’ils pourraient être légèrement différés, ne suivant pas nécessairement la chronologie apocalyptique que le scénario « AI 2027 » avait proposée.

A lire :  Abonnés de Vogue Offusqués par l'Origine des Nouvelles "Photos" en Deux Pages.

L’attente concernant l’autonomisation de la codification par l’IA a également été révisée. L’atteinte de celle-ci, qui aurait engendré une explosion d’intelligence, pourrait ne pas se matérialiser avant les années 2030. Auparavant, cette avancée était envisagée pour 2027, mais il apparaît maintenant que cette estimation était trop optimiste.

Une vision plus nuancée de l’IA moderne

De manière générale, le scepticisme a gagné du terrain concernant les délais prévus pour atteindre l’intelligence générale artificielle (AGI). Avec le lancement de ChatGPT en 2022, les pronostics autour de l’IA de niveau humain se sont multipliés, certains affirmant qu’elle pourrait survenir dans un avenir proche. Néanmoins, l’expérience récente révèle la nature irrégulière des progrès en IA, marquée par des systèmes performants qui peinent parfois avec des tâches simples comme le raisonnement ou la planification à long terme.

Malcolm Murray, un expert des risques liés à l’IA, fait état de cette lenteur dans l’évolution des prévisions. Pour qu’un scénario comme AI 2027 se concrétise, selon lui, des systèmes IA dotés de compétences plus pratiques seraient nécessaires. Il souligne également les freins sociétaux qui ralentissent les avancées en raison de structures politiques et institutionnelles rigides.

La réalité des objectifs industriels et des politiques

Malgré cela, les grandes entreprises restent en compétition pour développer des IA capable d’automatiser leur propre progression. Sam Altman, PDG d’OpenAI, a récemment déclaré qu’établir un chercheur IA automatisé d’ici mars 2028 est un objectif interne, tout en reconnaissant la possibilité d’un échec. Si cet objectif est atteint, cela pourrait significativement propulser les avancées en IA, même si cet aboutissement n’est pas en accord avec les prévisions de 2027.

A lire :  Ford Équipe Ses Véhicules d'un Cerveau IA Personnalisé : Découvrez les Détails.

Les experts en politique avertissent que l’intelligence seule ne se traduit pas nécessairement par un pouvoir réel. Andrea Castagna, chercheur en politique d’IA à Bruxelles, souligne que les IA avancées doivent être intégrées dans des systèmes humains complexes. Il rappelle que l’intégration de superintelligentes machines dans des structures profondément ancrées nécessitera une délicatesse et une compréhension des interactions humaines.

L’importance de Kokotajlo

Kokotajlo a su s’imposer grâce à son parcours. Il a acquis sa crédibilité en prédisant avec justesse l’essor des chatbots et en soulignant l’importance du « scaling » temps d’inférence, une technique qui est devenue essentielle pour l’IA moderne. Cependant, il ne cesse de rappeler que le scénario AI 2027 n’est pas une prophétie, mais un avenir potentiel parmi tant d’autres.

Par ailleurs, l’essai AI 2027 offre une fin alternative, où les gouvernements interviendraient, des accords internationaux réguleraient le développement de l’IA, et les systèmes seraient délibérément restreints pour rester interprétables et alignés sur les valeurs humaines. Dans ce cas, l’humanité résisterait, bien que des questions politiques épineuses continuent de se poser.

Les défis à venir et la concurrence accrue

Les critiques, comme le neuroscientifique Gary Marcus de NYU, décrivent les scénarios sombres proposés par Kokotajlo comme de la simple fiction spéculative. Il estime que ces récits alarmants détournent l’attention des problèmes pressants tels que le biais, la désinformation et la perturbation des emplois.

Pour autant, Kokotajlo pense que le fait de repousser les horizons temporels ne signifie pas abdiquer. Au contraire, cela offre un court répit pour l’action. Peu importe si l’IA transformative émerge dans la fin des années 2020, le milieu des années 2030 ou plus tard, la question centrale demeure : comment garantir que les systèmes d’IA avancés agissent toujours dans l’intérêt de l’humanité ? Ce débat, qu’il a contribué à initier, est loin d’être clos.

A lire :  Marc Andreessen finance une startup d’IA de "phone farms", accusée d’inonder les réseaux sociaux de spam

FAQ

Quelle est l’importance de l’automatisation dans le développement de l’IA ?

L’automatisation dans le développement de l’IA pourrait permettre des progrès rapides en vitesse et en efficacité, rendant les systèmes plus autonomes.

Quels sont les principaux risques associés à une IA superintelligente ?

Les principaux risques incluent la perte de contrôle sur les décisions, des biais dans la prise de décision et des impacts sociaux, tels que la perte d’emplois.

Comment les gouvernements peuvent-ils réguler le développement de l’IA ?

Les gouvernements peuvent établir des réglementations, des normes internationales et encourager la collaboration entre technologies et valeurs humaines.

Pourquoi le concept d’AGI est-il contesté ?

Certains soutiennent que le terme est obsolète, car les systèmes actuels montrent déjà des compétences générales, mais souvent de manière erratique et incomplète.

Qu’est-ce que le « scaling » temps d’inférence ?

C’est une technique qui permet aux systèmes d’IA d’améliorer leurs performances en temps réel sans nécessiter une supervision exhaustive par des humains.