Alerte sur les risques de l’IA pour la sécurité mondiale
Un rapport commandé par le Département d’État des États-Unis souligne que les évolutions rapides de l’intelligence artificielle (IA) pourraient représenter une menace catastrophique pour la sécurité nationale et même pour l’humanité tout entière. Ce document, intitulé « Un Plan d’Action pour Accroître la Sécurité des IA Avancées », révèle la nécessité d’une réponse urgente du gouvernement américain concernant l’ia.
Urgence d’une action gouvernementale
Le rapport insiste sur la nécessité d’agir « rapidement et de manière décisive », notamment en envisageant une limitation de la puissance de calcul utilisée pour former ces modèles d’IA, sous peine de créer une menace d’extinction pour l’espèce humaine. Une comparaison est même faite avec les armes nucléaires, indiquant que l’essor de l’IA avancée pourrait déstabiliser la sécurité mondiale de manière similaire.
L’avance vers l’AGI
Bien que les modèles d’IA n’aient pas encore atteint le niveau d’intelligence générale artificielle (AGI), qui leur permettrait de rivaliser avec l’intellect humain, de nombreux experts estiment que cela n’est qu’une question de temps. Il est donc crucial que les gouvernements prennent les devants pour éviter une crise majeure avant qu’il ne soit trop tard.
Preuves d’un danger imminent
Des figures de proue du secteur technologique, comme Yann LeCun de Meta et Demis Hassabis de Google, ont récemment mis en garde contre les dangers potentiels que l’IA représente pour l’humanité. Une enquête récente a révélé qu’une majorité de chercheurs en IA considère qu’il existe 5 % de chances que l’humanité soit confrontée à une extinction due à des scénarios catastrophiques liés à la technologie.
Un appel à la régulation
Le rapport, qui s’étend sur 247 pages et a été élaboré fin 2022, inclut des entretiens avec plus de 200 experts d’entreprises comme OpenAI et Google DeepMind. Les auteurs préconisent que les agences gouvernementales établissent une limite maximale sur la puissance de calcul autorisée pour la formation des modèles d’IA et que les entreprises obtiennent une autorisation pour toute démarche dépassant un certain seuil.
Mesures pour garantir la sécurité
Une recommandation intrigante du rapport suggère de criminaliser l’ouverture ou la divulgation des mécanismes internes des puissants modèles d’IA. Ces propositions visent à minimiser le risque que des laboratoires d’IA perdent le contrôle de leurs systèmes, ce qui pourrait engendrer des conséquences désastreuses pour la sécurité globale.
L’importance de la vigilance
Jeremie Harris, auteur du rapport et PDG de Gladstone AI, affirme que l’IA constitue déjà une technologie économiquement transformative, capable de résoudre des maladies et de relever des défis considérables. Cependant, il prévient aussi que ces avancées entraînent des risques sérieux, dont certains pourraient être de nature catastrophique si nous n’en prenons pas conscience et si nous ne sommes pas proactifs.
Réactions face aux préoccupations
Les avertissements lancés par des responsables de l’industrie sur les dangers potentiels de l’IA ne sont pas nouveaux, malgré les milliards de dollars investis dans son développement. Cependant, il reste à voir si les gouvernements suivront ces recommandations. Ce rapport arrive à un moment où l’Union européenne vient de passer une législation pour réglementer l’IA, potentiellement un tournant pour d’autres régions du monde concernant les réglementations futures.
Les inquiétudes des experts
Les préoccupations formulées par les auteurs du rapport soulèvent des questions sur la régulation : sont-elles justifiées ou sont-elles exagérées ? Les recommandations pourraient-elles être perçues comme une intrusion gouvernementale qui freinerait l’innovation ? En effet, le rapport précise qu’il ne reflète pas nécessairement les opinions officielles du gouvernement américain.
Greg Allen, directeur du Wadhwani Center for AI, exprime des doutes quant à l’adoption de ces recommandations par le gouvernement américain, soulignant l’écart entre les mesures de sécurité actuelles et les menaces potentielles que l’IA pourrait créer prochainement.
FAQ
Quelle est l’intelligence générale artificielle (AGI) ?
L’AGI désigne un type d’IA capable de comprendre, apprendre et appliquer des connaissances à un niveau comparable à celui d’un être humain.
Quelles entreprises sont mentionnées dans le rapport ?
Le rapport cite plusieurs entreprises de premier plan dans le domaine de l’IA, notamment OpenAI, Meta et Google DeepMind.
Quels types de risques a l’IA selon les experts ?
Les experts évoquent divers risques, incluant la perte de contrôle des systèmes d’IA, ce qui pourrait entraîner des conséquences dévastatrices sur une échelle mondiale.
Pourquoi le rapport appelle-t-il à limiter la puissance de calcul ?
Pour prévenir le développement de modèles d’IA qui pourraient devenir incontrôlables, et assurer une gestion sécurisée de ces technologies.
Quelles sont les implications de ces préoccupations pour l’innovation ?
Les craintes de régulation excessive pourraient potentiellement freiner l’innovation dans le secteur de l’IA, rendant le progrès technique plus complexe à réaliser.
