Scène de bataille médiévale : des soldats en cotte de mailles et casques s’affrontent à l’épée; certains combattent à cheval. Le sol boueux éclabousse tout autour sous l’impact des affrontements. Crédit photo : Getty Images
Religion et armée : une controverse américaine
Un général de l’US Air Force a ravivé le débat aux États‑Unis en affirmant que l’IA utilisée par l’armée américaine serait intrinsèquement meilleure grâce aux valeurs judéo‑chrétiennes du pays. Ces propos ont été tenus à Washington lors d’un événement du Hudson Institute, un think tank conservateur, alors que le Pentagone multiplie les projets liés à l’intelligence artificielle appliquée au champ militaire.
Ce qu’il a réellement voulu dire
L’officier a soutenu, en substance, que la société américaine s’appuie sur un socle moral hérité de traditions religieuses, et que cet ancrage se traduirait par des choices éthiques plus “responsables” dans la conception et l’emploi d’armes pilotées par l’IA. Il a opposé cette vision à d’“autres sociétés” qui, selon lui, rechercheraient leurs fins sans trop s’embarrasser des moyens, et il a présenté l’avenir des systèmes d’armement intelligents comme un test : qui respectera les règles de la guerre, et qui s’en affranchira.
Un tollé autour du nationalisme religieux
Les réactions politiques et scientifiques ne se sont pas fait attendre. Des auteurs, des universitaires et des spécialistes de l’éthique de l’IA ont dénoncé une rhétorique aux accents de nationalisme chrétien, soulignant que l’Histoire regorge d’interventions militaires menées au nom de “bonnes valeurs” qui se sont soldées par des conséquences tragiques. Des chercheurs en IA ont rappelé que nombre de biais et de dérives éthiques actuelles proviennent justement d’une vision occidentalo‑centrée des technologies, et qu’invoquer une supériorité morale ne résout ni les biais de données, ni les problèmes de gouvernance ou de responsabilité.
Rivalités techno‑militaires : la Chine en ligne de mire
Derrière ces déclarations, beaucoup ont vu une allusion à la Chine, considérée comme le principal adversaire technologique de Washington. Pékin investit lourdement dans l’IA militaire, c’est établi. Mais il n’y a guère d’éléments concrets montrant que ses capacités seraient fondamentalement pires que celles des États‑Unis. Les programmes américains eux‑mêmes sont régulièrement pointés du doigt pour leurs zones grises: tests discutables, risques de défaillances, et débats sur le niveau de supervision humaine exigible.
Le miroir du passé
Ce débat s’inscrit dans une longue histoire. Les États‑Unis ont déjà employé des technologies dévastatrices pour gagner des guerres, avec l’exemple emblématique de la bombe atomique larguée sur le Japon en 1945. L’actualité culturelle ravive d’ailleurs ces questions morales, à travers des œuvres qui revisitent la figure des scientifiques et des décideurs derrière ces armes de rupture. L’idée que la “bonne” intention suffirait à garantir un usage “vertueux” des nouvelles armes ne résiste pas à l’examen historique.
Pourquoi cette position inquiète
Associer la supériorité technique à une appartenance religieuse ou culturelle crée un dangereux clivage identitaire. Cela détourne l’attention des vrais chantiers : des normes claires, des tests rigoureux, une traçabilité des décisions algorithmiques, et un contrôle humain effectif. Les lois de la guerre et le droit international humanitaire ne reposent pas sur une tradition religieuse particulière, mais sur des principes universels: distinction, proportionnalité, précaution, responsabilité. C’est sur ce terrain qu’il faut juger l’IA militaire.
En bref
- Des propos attribuant la “qualité” de l’IA militaire américaine aux valeurs judéo‑chrétiennes ont déclenché une polémique.
- Des critiques y voient une justification idéologique masquant les vrais risques: biais, opacité, déshumanisation de la décision létale.
- La compétition avec la Chine sert de toile de fond, mais les problèmes éthiques sont globaux et ne se résolvent pas par des proclamations morales.
- L’Histoire rappelle que les intentions ne suffisent jamais à garantir un usage responsable des technologies militaires.
À lire aussi
Le débat public autour de l’IA s’invite jusque dans la culture populaire: certains cinéastes et auteurs disent avoir mis en garde depuis longtemps contre les conséquences d’une innovation technologique débridée.
FAQ
Qu’est-ce qu’une « arme autonome » au juste ?
Une arme autonome est un système capable de sélectionner et d’engager une cible sans intervention humaine immédiate. Le degré d’autonomie varie: on parle souvent de humain‑dans‑la‑boucle (l’humain déclenche), sur‑la‑boucle (l’humain supervise et peut interrompre), ou hors‑de‑la‑boucle (aucune intervention au moment critique), ce dernier niveau étant le plus controversé.
Les États‑Unis ont‑ils des règles spécifiques pour l’IA militaire ?
Oui. Le DoD a adopté des principes éthiques pour l’IA (fiabilité, traçabilité, gouvernance, responsabilité) et des politiques encadrant l’autonomie dans les systèmes d’armes. En pratique, cela implique des tests, une validation indépendante et des garde‑fous pour éviter les effets imprévus.
Existe‑t‑il des discussions internationales sur l’interdiction de certaines armes d’IA ?
Des négociations ont lieu dans le cadre de la Convention sur certaines armes classiques (CCAC) à l’ONU. Plusieurs États et organisations comme le CICR plaident pour des règles plus strictes, voire des interdictions ciblées des systèmes sans contrôle humain significatif.
Les “valeurs” peuvent‑elles vraiment influencer un algorithme ?
Indirectement, oui. Elles orientent le choix des objectifs, la collecte de données, la définition des métriques (par exemple, ce qu’on considère comme une “erreur acceptable”) et le cadre de responsabilité. Mais sans procédures techniques solides, les valeurs proclamées ne se traduisent pas en comportements fiables des systèmes.
À quoi ressemble une IA militaire « responsable » ?
À un ensemble de capacités testées en conditions réalistes, avec journalisation des décisions, explicabilité minimale, supervision humaine effective, audits indépendants, et la garantie que l’usage respecte le droit international. Sans ces éléments, la promesse d’une IA “plus morale” reste un slogan.
