Engagement des Acteurs Clés de l’IA
La semaine dernière, un certain nombre de grandes figures du domaine de l’intelligence artificielle ont apposé leur signature sur un engagement visant à ne jamais développer ni soutenir des systèmes d’IA capables de gérer des armes autonomes. Parmi les signataires figurent les cofondateurs de Google DeepMind, le fondateur d’OpenAI, Elon Musk, ainsi qu’une multitude de chercheurs et de leaders d’opinion reconnus dans le secteur.
Un Appel à l’Éthique
Cet engagement, lancé par l’Institut Future of Life de l’expert en IA Max Tegmark, soutient que toute technologie capable de cibler et d’éliminer des individus sans intervention humaine est fondamentalement immorale. Il met également en garde contre le risque d’une future course aux armements en matière d’IA. En s’engageant, ces figures éminentes de l’IA se rejoignent aux gouvernements de 26 nations, y compris des pays comme la Chine, le Pakistan et l’État de Palestine, qui ont également condamné et interdit ces armes létales.
Implications Pratiques de l’Engagement
Pour ceux qui envisagent de créer un drone de combat n’exigeant aucune supervision humaine avant d’agir, ils devront trouver des partenaires en dehors de ces pays ou signataires.
Enjeux Éthiques et Réalités
Interdire les robots tueurs peut sembler être une bonne décision pour l’avenir de l’humanité, particulièrement dans les pays touchés par les guerres par drones. Les enfants de ces régions ont déjà commencé à craindre le ciel. Cependant, il existe un point crucial que cet engagement ignore. En effet, des méthodes plus subtiles et insidieuses d’exploitation de l’IA contre des ennemis existent, bien au-delà de l’idée de fixer une mitrailleuse sur un bras de robot.
La Cybersécurité Oubliée
La sécurité numérique ne se limite pas à se défendre contre une armée de robots tueur. Comme l’explique Mariarosaria Taddeo de l’Institut Internet d’Oxford, l’IA peut être utilisée dans des conflits internationaux de manière moins évidente mais tout aussi influente. Les algorithmes d’intelligence artificielle peuvent être très efficaces pour pirater ou détourner des réseaux essentiels à la sécurité nationale.
Des exemples concrets incluent le service de santé public britannique qui a été paralysé par le virus WannaCry, un acte attribué à des groupes liés à la Corée du Nord. De même, un cyber-attaque russe a permis de prendre le contrôle des réseaux électriques en Europe et en Amérique du Nord. Avec des algorithmes autonomes sophistiqués, ces cyber-attentats pourraient se multiplier et devenir d’une ampleur dévastatrice. Pourtant, comme ces armes ne produisent pas de bruit de tir, l’engagement récent ne les mentionne pas, ni ne les considère.
Les Absents du Débat
Cela dit, l’engagement n’est pas sans valeur, mais il est tout aussi important de remarquer qui en est absent. Le Département de la Défense des États-Unis, par exemple, a récemment créé son Centre d’Intelligence Artificielle Conjointe (JAIC) pour anticiper d’éventuelles courses à l’armement en matière d’IA.
Le vice-secrétaire à la défense, Patrick Shanahan, a confié au responsable informatique du ministère de la défense de construire ce centre dans le but d’accélérer le développement de capabilités alimentées par l’IA en soutien aux missions militaires. Dans un email, Shanahan a déclaré que de nombreuses personnes parlent de la menace que représente l’IA, mais qu’eux souhaitent devenir la menace.
Perspective d’Avenir
Le JAIC perçoit l’intelligence artificielle comme un outil essentiel pour la guerre du futur. Étant donné la position offensive des États-Unis sur la guerre algorithmique, il demeure incertain qu’un engagement bienintentionné mais incomplet puisse avoir des effets significatifs sur la réalité des conflits futurs.
FAQ
Quels types d’armes autonomes existent déjà ?
Il existe plusieurs types d’armes autonomes en développement, notamment les drones de combat, les systèmes de défense anti-aériens et les systèmes de loin qui peuvent cibler des menaces potentielles sans intervention humaine.
Quels sont les risques associés aux cyberattaques alimentées par l’IA ?
Les cyberattaques utilisant l’IA peuvent entraîner la paralysie de services essentiels, comme l’eau, l’électricité, et même des infrastructures médicales, compromettant ainsi la sécurité publique.
D’autres pays ont-ils signé des engagements similaires concernant l’IA ?
De nombreux pays et organisations travaillent sur des accords pour réguler l’utilisation de l’IA dans le domaine militaire, mais l’ampleur et l’efficacité de ces accords sont souvent discutables.
Quel rôle jouent les entreprises privées dans ce débat ?
Les entreprises privées jouent un rôle crucial dans le développement de technologies d’IA et peuvent influencer les politiques militaires, souvent en raison de leur expertise technique et de leurs ressources financières.
Y a-t-il des alternatives aux armes autonomes ?
Les experts recommandent d’orienter la recherche vers des technologies de défense qui intègrent des principes éthiques et garantissent une supervision humaine rigoureuse lors des opérations.
