Intelligence Artificielle

Les scientifiques estiment la probabilité que l’IA conduise à l’extinction humaine.

Les scientifiques estiment la probabilité que l'IA conduise à l'extinction humaine.

Un Risque Inquiétant d’Extinction

Une nouvelle enquête menée auprès de 2 778 chercheurs met en lumière un risque non négligeable : l’intelligence artificielle pourrait conduire à l’extinction de l’humanité. Plus de la moitié des chercheurs en IA interrogés estiment qu’il existe une probabilité de 5 % que cela se produise, en plus d’autres résultats catastrophiques.

Parmi les réponses, un chercheur a cité une chance de 10 % que des machines surpassent l’intelligence humaine dans toutes les tâches d’ici 2027, et une probabilité de 50 % pour 2047. Toutefois, il y a un peu d’espoir : près de 69 % des participants croient que les conséquences positives des IA surhumaines sont plus probables que les conséquences négatives.

L’enquête dévoile surtout le décalage d’opinions parmi les chercheurs, certains plaidant pour une accélération du développement de l’IA, tandis que d’autres prônent une approche plus prudente.

Le Sens des Chiffres

Le fait que 5 % ne soit pas un chiffre insignifiant témoigne d’un danger perçu par beaucoup. Katja Grace, chercheuse au Machine Intelligence Research Institute en Californie, souligne que cela indique que « la majorité des chercheurs en IA ne pense pas qu’il est totalement improbable qu’une IA avancée puisse détruire l’humanité ». Pour elle, cette perception d’un risque significatif est plus révélatrice que le chiffre exact.

A lire :  Harvard Intègre un Enseignant IA dans son Programme du Semestre Prochain

L’enquête rappelle cependant que prévoir l’avenir est un exercice délicat et que même les experts peuvent se tromper. Les participants, bien qu’étant des spécialistes de l’IA, ne sont pas nécessairement doués pour la prédiction.

Prédictions Éclairées

Malgré tout, cela ne doit pas réduire la valeur de leurs opinions. Les chercheurs affirment que même si ces estimations sont peu fiables, elles reposent sur une expertise précieuse dans leur domaine. Ces prévisions devraient être intégrées dans un ensemble plus large d’evidences, incluant des tendances technologiques, des avancées en IA et des analyses économiques.

À court terme, les chercheurs mettent en garde contre des problèmes comme les deepfakes, la manipulation de l’opinion publique, la création de virus dangereux, ou encore des systèmes d’IA qui profitent à certains individus au détriment des autres. Avec les prochaines élections présidentielles aux États-Unis, il est certain que l’IA sera au centre des préoccupations, en particulier concernant sa capacité à distordre la vérité de manière convaincante.


FAQ

Qu’est-ce qu’une IA surhumaine ?

L’IA surhumaine désigne une intelligence artificielle qui surpasserait l’intelligence humaine dans presque toutes les tâches cognitives, engendrant des opportunités et des risques significatifs.

Quels sont les risques immédiats liés à l’IA ?

Les risques immédiats incluent la désinformation par des deepfakes, la manipulation de l’opinion publique, et le développement de virus informatiques capables de causer des dommages.

Comment les experts évaluent-ils les risques de l’IA ?

Les experts basent leurs évaluations sur leur expertise spécifique, les tendances technologiques et les analyses économiques, tout en reconnaissant que les prévisions peuvent être inexactes.

A lire :  L'Usage de l'IA : Une Consommation Énergétique Surprenante.

Quelles sont les opinions divergentes parmi les chercheurs ?

Certains chercheurs estiment qu’il est crucial d’accélérer le développement de l’IA, tandis que d’autres jugent qu’il est nécessaire d’adopter une approche plus prudente pour éviter des conséquences négatives.

Pourquoi est-il difficile de prévoir l’impact de l’IA ?

Prévoir l’impact de l’IA est difficile en raison de la rapidité des avancées technologiques et du caractère incertain des effets sociétaux qui en résultent.