Inscrivez-vous pour découvrir l’avenir dès aujourd’hui.
<div class="newsletter-cta-description">
<p class="article-paragraph">Des innovations incontournables aux frontières de la science et de la technologie.</p>
</div>
</div>
Sommaire
ToggleSignaux d’Alerte
Laura Nolan, ex-ingénieure chez Google, alerte sur les risques significatifs que représente la délégation de contrôle des systèmes d’armement à des machines autonomes. Selon elle, si les gouvernements permettent aux robots autonomes de prendre des décisions, nous pourrions être confrontés à des calamités imprévues ou même à des actes de guerre. Nolan a quitté Google en raison de son désaccord avec le projet Maven, qui visait à développer des technologies d’intelligence artificielle pour des drones militaires. Elle a déclaré à The Guardian qu’il est essentiel qu’un humain reste toujours en charge, afin d’éviter que la technologie ne commette des erreurs tragiques non prévues dans leur programmation initiale.
Dommages Collatéraux
Des puissances militaires comme la Russie, le Royaume-Uni et les États-Unis ont fait des investissements considérables dans les armes autonomes, les drones militaires et les robots de combat. Cependant, ce concept fait l’objet de scepticisme en dehors des milieux militaires. De plus en plus de scientifiques s’élèvent contre l’utilisation de telles armes, appelant les gouvernements à interdire les systèmes d’armement entièrement autonomes.
Nolan souligne un exemple préoccupant : imaginez des robots autonomes envoyés pour remplir une mission qui pourraient interpréter des signaux radar imprévus, comme des chasseurs, comme des ennemis et donc ouvrir le feu. Elle explique que, malgré le faible nombre de voix exprimant ces préoccupations, il est crucial d’être vigilant. « Un de ces robots pourrait, par accident, déclencher une guerre éclair, détruire une centrale nucléaire et engendrer des atrocités massives », avertit-elle.
LIRE DAVANTAGE :
- Un ancien employé de Google craignant que des ‘robots tueurs’ causent des atrocités massives [The Guardian]
- Plus sur les armes autonomes : Des experts estiment qu’il serait “relativement facile” de déployer des robots tueurs d’ici 2021.
FAQ
Quels sont les dangers des armes autonomes ?
Les armes autonomes présentent des risques de décisions non contrôlées, entraînant des erreurs catastrophiques et des conséquences imprévues sur le terrain.
Pourquoi les scientifiques s’opposent-ils à l’utilisation de ces technologies ?
Beaucoup de scientifiques craignent que la mise en œuvre de systèmes d’armement autonomes, sans supervision humaine, puisse mener à des conflits non désirés et à des violations des droits de l’homme.
Quelle est la position de Laura Nolan sur le contrôle humain des machines ?
Laura Nolan insiste sur le fait qu’il doit toujours y avoir un humain aux commandes pour éviter que la technologie n’agisse de manière imprévisible et dangereuse.
Quelles alternatives existent à l’utilisation d’armes autonomes ?
Des approches basées sur la détection et la neutralisation d’ennemis sans usage d’armes létales, ainsi que des systèmes de gestion de crise, sont des alternatives éthiques aux armes autonomes.
Comment les gouvernements peuvent-ils réguler ces technologies ?
Les gouvernements doivent élaborer des lois internationales et des protocoles de sécurité stricte pour contrôler le développement et l’utilisation d’armes autonomes, afin de préserver la paix et la sécurité mondiale.
