Mobilité

Les Leaders Qui Ont Promis De Ne Pas Développer Des Machines Tueur Autonomes Ignorent La Vraie Problématique

Les Leaders Qui Ont Promis De Ne Pas Développer Des Machines Tueur Autonomes Ignorent La Vraie Problématique

Engagement des Acteurs Clés de l’IA

La semaine dernière, un certain nombre de grandes figures du domaine de l’intelligence artificielle ont apposé leur signature sur un engagement visant à ne jamais développer ni soutenir des systèmes d’IA capables de gérer des armes autonomes. Parmi les signataires figurent les cofondateurs de Google DeepMind, le fondateur d’OpenAI, Elon Musk, ainsi qu’une multitude de chercheurs et de leaders d’opinion reconnus dans le secteur.

Un Appel à l’Éthique

Cet engagement, lancé par l’Institut Future of Life de l’expert en IA Max Tegmark, soutient que toute technologie capable de cibler et d’éliminer des individus sans intervention humaine est fondamentalement immorale. Il met également en garde contre le risque d’une future course aux armements en matière d’IA. En s’engageant, ces figures éminentes de l’IA se rejoignent aux gouvernements de 26 nations, y compris des pays comme la Chine, le Pakistan et l’État de Palestine, qui ont également condamné et interdit ces armes létales.

Implications Pratiques de l’Engagement

Pour ceux qui envisagent de créer un drone de combat n’exigeant aucune supervision humaine avant d’agir, ils devront trouver des partenaires en dehors de ces pays ou signataires.

A lire :  « Les producteurs de “Blade Runner 2049” poursuivent Elon Musk pour association indésirable avec l’échec de l’événement Robotaxi de Tesla »

Enjeux Éthiques et Réalités

Interdire les robots tueurs peut sembler être une bonne décision pour l’avenir de l’humanité, particulièrement dans les pays touchés par les guerres par drones. Les enfants de ces régions ont déjà commencé à craindre le ciel. Cependant, il existe un point crucial que cet engagement ignore. En effet, des méthodes plus subtiles et insidieuses d’exploitation de l’IA contre des ennemis existent, bien au-delà de l’idée de fixer une mitrailleuse sur un bras de robot.

La Cybersécurité Oubliée

La sécurité numérique ne se limite pas à se défendre contre une armée de robots tueur. Comme l’explique Mariarosaria Taddeo de l’Institut Internet d’Oxford, l’IA peut être utilisée dans des conflits internationaux de manière moins évidente mais tout aussi influente. Les algorithmes d’intelligence artificielle peuvent être très efficaces pour pirater ou détourner des réseaux essentiels à la sécurité nationale.

Des exemples concrets incluent le service de santé public britannique qui a été paralysé par le virus WannaCry, un acte attribué à des groupes liés à la Corée du Nord. De même, un cyber-attaque russe a permis de prendre le contrôle des réseaux électriques en Europe et en Amérique du Nord. Avec des algorithmes autonomes sophistiqués, ces cyber-attentats pourraient se multiplier et devenir d’une ampleur dévastatrice. Pourtant, comme ces armes ne produisent pas de bruit de tir, l’engagement récent ne les mentionne pas, ni ne les considère.

Les Absents du Débat

Cela dit, l’engagement n’est pas sans valeur, mais il est tout aussi important de remarquer qui en est absent. Le Département de la Défense des États-Unis, par exemple, a récemment créé son Centre d’Intelligence Artificielle Conjointe (JAIC) pour anticiper d’éventuelles courses à l’armement en matière d’IA.

A lire :  Une Startup Réinvente le Tesla Semi en Concept de Camping-Car Éblouissant

Le vice-secrétaire à la défense, Patrick Shanahan, a confié au responsable informatique du ministère de la défense de construire ce centre dans le but d’accélérer le développement de capabilités alimentées par l’IA en soutien aux missions militaires. Dans un email, Shanahan a déclaré que de nombreuses personnes parlent de la menace que représente l’IA, mais qu’eux souhaitent devenir la menace.

Perspective d’Avenir

Le JAIC perçoit l’intelligence artificielle comme un outil essentiel pour la guerre du futur. Étant donné la position offensive des États-Unis sur la guerre algorithmique, il demeure incertain qu’un engagement bienintentionné mais incomplet puisse avoir des effets significatifs sur la réalité des conflits futurs.

FAQ

Quels types d’armes autonomes existent déjà ?

Il existe plusieurs types d’armes autonomes en développement, notamment les drones de combat, les systèmes de défense anti-aériens et les systèmes de loin qui peuvent cibler des menaces potentielles sans intervention humaine.

Quels sont les risques associés aux cyberattaques alimentées par l’IA ?

Les cyberattaques utilisant l’IA peuvent entraîner la paralysie de services essentiels, comme l’eau, l’électricité, et même des infrastructures médicales, compromettant ainsi la sécurité publique.

D’autres pays ont-ils signé des engagements similaires concernant l’IA ?

De nombreux pays et organisations travaillent sur des accords pour réguler l’utilisation de l’IA dans le domaine militaire, mais l’ampleur et l’efficacité de ces accords sont souvent discutables.

Quel rôle jouent les entreprises privées dans ce débat ?

Les entreprises privées jouent un rôle crucial dans le développement de technologies d’IA et peuvent influencer les politiques militaires, souvent en raison de leur expertise technique et de leurs ressources financières.

A lire :  Des Images Effrayantes Illustrent un Cybertruck en Mode Autonome Déviant vers la Circulation Réciproque.

Y a-t-il des alternatives aux armes autonomes ?

Les experts recommandent d’orienter la recherche vers des technologies de défense qui intègrent des principes éthiques et garantissent une supervision humaine rigoureuse lors des opérations.