Militaire

Le Pentagone élude la question de l’utilisation de l’IA pour cibler une école élémentaire lors d’une attaque.

Le Pentagone élude la question de l'utilisation de l'IA pour cibler une école élémentaire lors d'une attaque.

Contexte tragique des frappes aériennes

Suite à des frappes aériennes qui ont détruit une école en Iran et causé la mort de 165 élèves et membres du personnel, le Pentagone a refusé de préciser si un système d’intelligence artificielle (IA) avait été à l’origine de l’attaque. Cette possibilité, bien qu’horrifiante, n’est pas aussi éloignée qu’on pourrait le penser.

Utilisation de l’intelligence artificielle par le Pentagone

D’après un rapport du Wall Street Journal, les autorités auraient utilisé le modèle d’IA Claude d’Anthropic pour planifier des frappes militaires en Iran durant le week-end dernier, et il semblerait qu’elles continuent à s’en servir dans le cadre des opérations menées par l’administration Trump.

Les détails de l’attaque

Dans ce premier acte, soit les États-Unis soit Israël — les données disponibles indiquent que ce sont les États-Unis — ont détruit l’école pour filles Shajareh Tayyebeh, située à Minab, dans le sud de l’Iran. La majorité des victimes étaient des enfants âgés de 7 à 12 ans, et au moins 95 autres personnes ont été blessées lors de cette attaque.

A lire :  Lancement d'une initiative ambitieuse : 50,000 robots humanoïdes d'ici 2027 par une entreprise américaine

Une seconde frappe choquante

Des informations reçues de Middle East Eye rapportent que l’école a été frappée une seconde fois suite à la première attaque, blessant des secouristes et des parents venus chercher leurs enfants. Ce type de stratégie, connu sous le nom de « double impact », rappelle des bombardements passés, tels que ceux sur des embarcations civiles au Venezuela ou des frappes en Pakistan.

Questions non résolues concernant l’usage de l’IA

Avec l’utilisation supposée d’IA pour cibler certaines opérations militaires en Iran, une question majeure se pose : les États-Unis ont-ils utilisé Claude pour décider de détruire une école élémentaire ?

Réaction du Pentagone

Lorsque Futurism a contacté le Pentagone pour obtenir des précisions sur l’utilisation de l’IA dans ces opérations, notamment en ce qui concerne l’école Shajareh Tayyebeh, l’organisme a renvoyé vers le CENTCOM, qui n’a fourni aucune information complémentaire.

Accusations de ciblage par l’IA

L’idée que l’armée américaine utilise Claude dans un conflit qui a déjà causé plus de 1 000 morts en moins d’une semaine peut sembler choquante, mais ce n’est pas une première. En avril 2024, une enquête a révélé que l’armée israélienne avait déjà utilisé un système d’IA appelé « Lavande » pour sélectionner des cibles pendant sa guerre à Gaza, entraînant des milliers de décès.

Les décisions prises par Lavande, souvent perçues comme des choix humains, sont inquiétantes en termes d’éthique militaire. Un ancien militaire a même déclaré que son rôle se limitait à valider des cibles, sans véritable valeur ajoutée en tant qu’humain. Ce phénomène marque le début d’une ère militaire où il est difficile de savoir si des êtres humains prennent réellement des décisions de vie ou de mort.

A lire :  Le secrétaire général de l’OTAN veut équiper les chars militaires de panneaux solaires

Implications éthiques et sociales

Cette évolution soulève de sérieuses préoccupations éthiques. Il est légitime de s’interroger sur la manière dont des systèmes d’IA influent sur les choix tactiques, en particulier quand ces décisions impactent des vies innocentes, comme celles d’écoliers.

FAQ

Quelle est la signification du terme « double impact » dans les frappes aériennes ?

Ce terme désigne une stratégie où une première frappe est suivie rapidement d’une seconde visant les secours, causant des pertes supplémentaires parmi les civils.

À quoi sert le modèle d’IA Claude dans le contexte militaire ?

Claude est utilisé pour analyser des situations et potentiellement prendre des décisions concernant le ciblage des frappes militaires.

Quelles sont les conséquences éthiques de l’utilisation de l’IA dans les opérations militaires ?

L’utilisation de l’IA soulève des questions sur la responsabilité humaine et la moralité des décisions prises sans intervention humaine directe, surtout en ce qui concerne la vie des civils.

Existe-t-il d’autres exemples d’IA utilisée dans des contextes militaires ?

Oui, l’IA a également été utilisée par d’autres forces armées à travers le monde, comme dans le cas du système « Lavande » en Israël, qui a aidé à identifier des cibles pendant les frappes à Gaza.

Que signifie le terme « Lavande » dans le contexte militaire ?

« Lavande » est le nom d’un système d’IA utilisé par l’armée israélienne pour sélectionner des cibles, servant à optimiser les opérations militaires en réduisant le temps de prise de décision.