Intelligence Artificielle

Rapport du Département d’État : Alerte sur l’Apocalypse de l’IA et Proposition de Limiter la Puissance de Calcul pour l’Entraînement

Rapport du Département d'État : Alerte sur l'Apocalypse de l'IA et Proposition de Limiter la Puissance de Calcul pour l'Entraînement

Alerte sur les risques de l’IA pour la sécurité mondiale

Un rapport commandé par le Département d’État des États-Unis souligne que les évolutions rapides de l’intelligence artificielle (IA) pourraient représenter une menace catastrophique pour la sécurité nationale et même pour l’humanité tout entière. Ce document, intitulé « Un Plan d’Action pour Accroître la Sécurité des IA Avancées », révèle la nécessité d’une réponse urgente du gouvernement américain concernant l’ia.

Urgence d’une action gouvernementale

Le rapport insiste sur la nécessité d’agir « rapidement et de manière décisive », notamment en envisageant une limitation de la puissance de calcul utilisée pour former ces modèles d’IA, sous peine de créer une menace d’extinction pour l’espèce humaine. Une comparaison est même faite avec les armes nucléaires, indiquant que l’essor de l’IA avancée pourrait déstabiliser la sécurité mondiale de manière similaire.

L’avance vers l’AGI

Bien que les modèles d’IA n’aient pas encore atteint le niveau d’intelligence générale artificielle (AGI), qui leur permettrait de rivaliser avec l’intellect humain, de nombreux experts estiment que cela n’est qu’une question de temps. Il est donc crucial que les gouvernements prennent les devants pour éviter une crise majeure avant qu’il ne soit trop tard.

A lire :  Le PDG de l'Éditeur de Grand Theft Auto Dénonce l'Engouement pour l'IA dans l'Industrie du Jeu Vidéo

Preuves d’un danger imminent

Des figures de proue du secteur technologique, comme Yann LeCun de Meta et Demis Hassabis de Google, ont récemment mis en garde contre les dangers potentiels que l’IA représente pour l’humanité. Une enquête récente a révélé qu’une majorité de chercheurs en IA considère qu’il existe 5 % de chances que l’humanité soit confrontée à une extinction due à des scénarios catastrophiques liés à la technologie.

Un appel à la régulation

Le rapport, qui s’étend sur 247 pages et a été élaboré fin 2022, inclut des entretiens avec plus de 200 experts d’entreprises comme OpenAI et Google DeepMind. Les auteurs préconisent que les agences gouvernementales établissent une limite maximale sur la puissance de calcul autorisée pour la formation des modèles d’IA et que les entreprises obtiennent une autorisation pour toute démarche dépassant un certain seuil.

Mesures pour garantir la sécurité

Une recommandation intrigante du rapport suggère de criminaliser l’ouverture ou la divulgation des mécanismes internes des puissants modèles d’IA. Ces propositions visent à minimiser le risque que des laboratoires d’IA perdent le contrôle de leurs systèmes, ce qui pourrait engendrer des conséquences désastreuses pour la sécurité globale.

L’importance de la vigilance

Jeremie Harris, auteur du rapport et PDG de Gladstone AI, affirme que l’IA constitue déjà une technologie économiquement transformative, capable de résoudre des maladies et de relever des défis considérables. Cependant, il prévient aussi que ces avancées entraînent des risques sérieux, dont certains pourraient être de nature catastrophique si nous n’en prenons pas conscience et si nous ne sommes pas proactifs.

A lire :  Des Universitaires Signalent que ChatGPT Rédige des Articles de Qualité Inacceptable

Réactions face aux préoccupations

Les avertissements lancés par des responsables de l’industrie sur les dangers potentiels de l’IA ne sont pas nouveaux, malgré les milliards de dollars investis dans son développement. Cependant, il reste à voir si les gouvernements suivront ces recommandations. Ce rapport arrive à un moment où l’Union européenne vient de passer une législation pour réglementer l’IA, potentiellement un tournant pour d’autres régions du monde concernant les réglementations futures.

Les inquiétudes des experts

Les préoccupations formulées par les auteurs du rapport soulèvent des questions sur la régulation : sont-elles justifiées ou sont-elles exagérées ? Les recommandations pourraient-elles être perçues comme une intrusion gouvernementale qui freinerait l’innovation ? En effet, le rapport précise qu’il ne reflète pas nécessairement les opinions officielles du gouvernement américain.

Greg Allen, directeur du Wadhwani Center for AI, exprime des doutes quant à l’adoption de ces recommandations par le gouvernement américain, soulignant l’écart entre les mesures de sécurité actuelles et les menaces potentielles que l’IA pourrait créer prochainement.

FAQ

Quelle est l’intelligence générale artificielle (AGI) ?

L’AGI désigne un type d’IA capable de comprendre, apprendre et appliquer des connaissances à un niveau comparable à celui d’un être humain.

Quelles entreprises sont mentionnées dans le rapport ?

Le rapport cite plusieurs entreprises de premier plan dans le domaine de l’IA, notamment OpenAI, Meta et Google DeepMind.

Quels types de risques a l’IA selon les experts ?

Les experts évoquent divers risques, incluant la perte de contrôle des systèmes d’IA, ce qui pourrait entraîner des conséquences dévastatrices sur une échelle mondiale.

Pourquoi le rapport appelle-t-il à limiter la puissance de calcul ?

Pour prévenir le développement de modèles d’IA qui pourraient devenir incontrôlables, et assurer une gestion sécurisée de ces technologies.

A lire :  L'IA de rédaction d'articles de CNET : des erreurs surprenantes déjà publiées

Quelles sont les implications de ces préoccupations pour l’innovation ?

Les craintes de régulation excessive pourraient potentiellement freiner l’innovation dans le secteur de l’IA, rendant le progrès technique plus complexe à réaliser.