<h2 class="newsletter-cta-title">Inscrivez-vous à notre newsletter !</h2>
<p class="article-paragraph skip">Restez à l'avant-garde de l'innovation dès aujourd'hui.</p>
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Ne manquez pas les avancées révolutionnaires du domaine scientifique et technologique.</p>
</div>
</div>
Sommaire
ToggleLa menace nucléaire
Selon une enquête menée par l’Institut pour l’Intelligence Artificielle Centrée sur l’Homme de l’Université de Stanford, 36 % des chercheurs estiment que l’intelligence artificielle pourrait aboutir à une « catastrophe de niveau nucléaire ». Ces chiffres sont préoccupants.
Ce sondage fait partie du rapport annuel sur l’index de l’IA, qui constitue un état des lieux de l’industrie. Bien que le document mette en avant des aspects positifs, comme l’augmentation de l’intérêt des décideurs pour les questions liées à l’IA, ce chiffre de 36 % est difficile à ignorer.
Plusieurs voies de préjudice
Pour rassurer certains, un utilisateur a récemment tenté de pousser un système d’IA autonome nommé ChaosGPT à « détruire l’humanité », mais son initiative a été rapidement contenue.
Cependant, il est essentiel de noter que ce chiffre de 36 % concerne uniquement la décision autonome de l’IA, c’est-à-dire une IA faisant des choix qui pourraient mener à une catastrophe, et non à l’usage abusif de l’IA par des humains, qui représente un danger croissant évoqué dans le rapport.
Le rapport indique que, selon la base de données AIAAIC, le nombre d’incidents et de controverses liés à l’IA a augmenté de 26 fois depuis 2012. En 2022, certains cas marquants incluent un faux vidéo où le président ukrainien Volodymyr Zelenskyy semble se rendre, ainsi que l’utilisation de technologies de surveillance des appels dans les prisons américaines.
Les chercheurs soulignent que cette montée en flèche est le reflet d’une utilisation accrue des technologies de l’IA mais aussi d’une plus grande prise de conscience des dangers potentiels associés à ses abus.
En d’autres termes, l’IA peut causer des dommages, que ce soit par elle-même ou par l’interaction malsaine des humains avec la technologie.
Une perception ambivalente
Malgré ces inquiétudes, seulement 41 % des chercheurs en traitement du langage naturel pensent que l’IA devrait être réglementée.
Cette enquête offre un aperçu révélateur des sentiments partagés dans le secteur de l’IA, qui semble oscillant face à l’avenir de cette technologie. Par exemple, seulement 57 % des chercheurs pensent que les avancées récentes ouvrent la voie à une intelligence artificielle générale.
Toutefois, un consensus notable a vu le jour : 73 % des chercheurs croient que l’IA pourrait bientôt entraîner des changements sociaux révolutionnaires.
Dans cette perspective, que l’on s’oriente vers une catastrophe de niveau nucléaire ou vers un tout autre scénario, il serait avisé de rester vigilant.
LIRE PLUS : Mesurer les tendances en Intelligence Artificielle [Université de Stanford]
FAQ
Qu’est-ce qu’une intelligence artificielle générale ?
L’intelligence artificielle générale désigne une IA capable de comprendre, d’apprendre et d’appliquer des connaissances de manière similaire à un être humain, ce qui est encore un objectif à atteindre dans le domaine.
Quelles sont les mesures possibles pour réglementer l’IA ?
Les réglementations peuvent inclure des exigences de transparence, des contrôles de sécurité renforcés et des directives pour les entreprises utilisant l’IA, afin d’assurer un usage éthique.
Quels sont les exemples de risques liés à l’IA ?
Les risques incluent des biais dans les algorithmes de décision, l’utilisation abusive de l’IA dans la surveillance ou la manipulation d’informations, ainsi que des accidents liés aux systèmes autonomes.
Pourquoi l’IA cause-t-elle autant d’inquiétude ?
Les inquiétudes proviennent de la rapidité d’évolution de la technologie, des conséquences potentielles sur l’emploi, la vie privée et la sécurité, ainsi que de la possibilité de décisions inappropriées par des systèmes autonomes.
Comment l’IA influence-t-elle les décisions sociétales ?
L’IA peut façonner les décisions politiques et économiques par l’analyse de données massives, influençant ainsi les politiques publiques, le marketing et même des décisions judiciaires.
