Inscrivez-vous pour découvrir le futur dès aujourd’hui.
<div class="description">
<p class="details">Des innovations incontournables aux frontières de la science et de la technologie.</p>
</div>
</div>
Sommaire
ToggleRéflexion sur des robots autonomes
Un groupe consultatif du Congrès américain a été chargé de déterminer si l’armée des États-Unis devait avoir la possibilité de développer des robots tueurs autonomes capables d’utiliser la force létale. Après examen, il a décidé que le gouvernement devait garder ses options ouvertes.
En adoptant une approche semblable à celle d’un parent convaincant son enfant d’essayer des légumes, les membres de la Commission de la sécurité nationale sur l’intelligence artificielle ont conclu qu’il serait judicieux que le Congrès envisage l’idée d’autoriser ces systèmes d’IA à tester leurs capacités. Selon ces experts, sans cet essai, le militaire pourrait ne jamais savoir si ces technologies réussissent à réduire le nombre d’innocents tués. Cette décision a été prise malgré une pression internationale grandissante en faveur d’une interdiction totale des IA meurtrières.
Obligation morale
Bien que cette décision ne définisse pas directement la politique des États-Unis, le groupe, dirigé par l’ancien PDG de Google, Eric Schmidt, a une certaine influence au Congrès, selon les informations de Reuters. De plus, elle est en accord avec les initiatives que l’armée a déjà mises en place, comme la formulation de principes éthiques qui visent principalement à s’assurer de l’efficacité des IA responsables.
Le vice-président de la commission et ancien sous-secrétaire à la Défense, Robert Work, a argué que des IA performantes pourraient engendrer moins de victimes que des soldats humains. Selon lui, « poursuivre cette hypothèse est un impératif moral ».
Course à l’armement
Il est indéniable que l’armée américaine a déjà commencé le développement de tanks autonomes, appelés stratégiquement « systèmes automatisés de létalité ». D’autres pays comme la Chine, la Russie et le Royaume-Uni ont également mis au point des robots, des drones ou des algorithmes capables de prendre des vies humaines, indiquant ainsi que cette notion d’impératif moral d’explorer les technologies létales pourrait être davantage liée à la peur de ne pas se laisser distancer dans cette course à l’armement.
Mary Wareham, coordinatrice de la Campagne contre les robots tueurs, a souligné que l’insistance de cette commission sur le besoin de rivaliser avec les investissements similaires de la Chine et de la Russie ne fait qu’encourager une escalade de la course aux armements.
À LIRE AUSSI : Commission américaine souligne un ‘impératif moral’ d’explorer les armes d’IA [Reuters]
Plus sur les robots tueurs : Voici les nouveaux principes éthiques du Pentagone concernant l’IA dans la guerre.
FAQ
Quels sont les risques associés au développement de robots tueurs autonomes ?
Le développement de ces technologies soulève des questions éthiques et de sécurité, notamment le risque de décisions fatales prises sans intervention humaine.
Comment d’autres pays abordent-ils la question des IA militaires ?
Des nations comme la Chine et la Russie développent également des technologies similaires, sans nécessairement embrasser des standards éthiques, ce qui augmente la compétition internationale.
Quel est le rôle du Congrès dans cette décision ?
Le Congrès a la possibilité de légaliser ou de réguler le développement de ces technologies, mais la commission actuelle semble pencher vers une exploration.
Quelles conséquences pourrait avoir une course à l’armement en IA ?
Une course à l’armement pourrait accroître les tensions internationales et mener à une déshumanisation des conflits, avec des implications morales profondes.
Existe-t-il des mouvements pour interdire les robots tueurs ?
Oui, plusieurs organisations et mouvements plaident pour une interdiction totale des armements autonomes en raison de préoccupations éthiques et de sécurité.
