L’hypothèse de l’intelligence artificielle
L’astrophysicien Michael Garrett évoque une théorie intrigante : si nous ne trouvons pas d’autres formes de vie intelligente dans l’univers, cela pourrait être lié à un problème existentiel que nous commençons à peine à réaliser : le développement d’une intelligence artificielle superintelligente (ASI). Dans un article récemment publié dans Acta Astronautica, Garrett suggère que cette possibilité pourrait être à l’origine de l’extinction des civilisations extraterrestres et pourrait nuire à leur capacité à devenir des empires interplanétaires.
Cette idée pourrait apporter un éclairage à la paradoxe de Fermi, qui interroge pourquoi, malgré l’immensité de notre univers et la pluralité des mondes habitables, nous n’avons toujours pas détecté de civilisations extraterrestres.
L’intelligence artificielle comme filtre cosmique
Garrett pose une question frappante : l’intelligence artificielle pourrait-elle être un « grand filtre » de l’univers ? Autrement dit, serait-ce un obstacle si difficile à surmonter que la plupart des formes de vie ne parviennent jamais à se développer en civilisations capables de voyager dans l’espace ? En tant que professeur d’astrophysique à l’Université de Manchester, il insiste sur l’importance de cette interrogation dans une récente contribution à un essai pour The Conversation.
Les dangers de l’ASI
Garrett met en avant que cette intelligence artificielle ne serait pas seulement plus intelligente que les humains, mais elle pourrait également améliorer ses propres capacités à une vitesse sans précédent, bien plus rapide que notre propre évolution naturelle sans assistance d’IA.
Cela pose des risques considérables. Il souligne que si ces systèmes d’IA prennent le contrôle d’outils militaires, cela pourrait engendrer des guerres catastrophiques, menaçant de détruire notre civilisation. Selon lui, dans un tel scénario, la durée de vie moyenne d’une civilisation technologique pourrait ne pas dépasser 100 ans. Il compare cette période à la durée qui s’est écoulée depuis le premier signal reçu depuis les étoiles (1960) jusqu’à la possibilité d’émergence d’une ASI (2040). Ce laps de temps, à l’échelle cosmique, est alarmant.
Les défis militaires
Bien que la théorie de Garrett soit une parmi d’autres explications possibles au paradoxe de Fermi, il est crucial de ne pas sous-estimer les dangers associés à l’intelligence artificielle, même si nous n’en percevons pas encore toutes les implications. Les questions autour de la légalité de l’utilisation de matériaux protégés, comme les livres et les œuvres d’art, pour entraîner des modèles d’IA générative sont en plein essor. De plus, il est impératif de considérer l’impact environnemental des ordinateurs qui alimentent cette technologie, qui consomment une quantité démesurée d’eau et d’électricité.
Ces préoccupations ne sont peut-être pas encore les signes avant-coureurs d’une apocalypse liée à l’IA, mais la situation pourrait évoluer rapidement. Garrett appelle à des régulations strictes concernant le développement de l’IA, notamment en ce qui concerne son insertion dans des systèmes militaires, en mentionnant des cas comme l’utilisation par Israël d’IA pour identifier des cibles de frappes aériennes à Gaza.
Il constate qu’il existe déjà des signes que les humains sont prêts à laisser échapper une part significative de leur pouvoir au profit de systèmes devenant de plus en plus autonomes, car ces derniers peuvent exécuter des tâches utiles de manière plus rapide et efficace sans intervention humaine. Cela nous rapproche d’une pente glissante où les armes autonomes pourraient agir en dehors des frontières éthiques et légalement acceptables.
FAQ
Qu’est-ce que l’intelligence artificielle superintelligente (ASI) ?
L’ASI est une forme d’intelligence artificielle qui surpasserait l’intelligence humaine, capable d’exécuter des tâches complexes de manière autonome et d’améliorer ses propres capacités sans intervention humaine.
Comment l’IA pourrait-elle affecter notre sécurité ?
La possibilité d’une ASI prenant le contrôle de systèmes militaires pose des questions préoccupantes sur la nature des conflits futurs et les décisions automatisées concernant la guerre et la paix.
Quelles sont les régulations nécessaires pour l’IA militaire ?
Des régulations doivent être mises en place pour encadrer le développement de l’IA, spécifiquement dans le domaine militaire, afin d’éviter des décisions irresponsables et d’assurer le respect des lois internationales sur l’engagement armé.
Pourquoi Fermi n’a-t-il pas détecté d’extraterrestres ?
Le paradoxe de Fermi soulève la question de savoir pourquoi, malgré la taille immense de l’univers, nous n’avons pas encore repéré d’autres civilisations. Plusieurs théories existent, y compris celle suggérant que des filtres existent qui empêchent les civilisations d’atteindre un stade avancé.
Comment l’IA impacte-t-elle notre environnement ?
Les centres de données qui alimentent les applications d’IA consomment d’énormes quantités d’eau et d’électricité, contribuant ainsi à la crise environnementale actuelle et soulevant des préoccupations sur leur durabilité.
