Conflit militaire contre l’Iran
Les attaques en cours contre la République Islamique d’Iran, menées par une coalition des forces militaires américaines et israéliennes, ont déjà causé la perte tragique de 555 vies iraniennes. Parmi ces victimes, 165 personnes ont été tuées lors d’un assaut sur une école élémentaire dans le sud de l’Iran.
Impliquant l’intelligence artificielle
Selon un article du Wall Street Journal, au fur et à mesure que les attaques se déroulaient, la force de frappe militaire a utilisé le chatbot Claude, développé par Anthropic, pour choisir ses cibles. Ce modèle de langage est devenu un outil essentiel pour le Commandement Central des États-Unis au Moyen-Orient, s’occupant de l’évaluation des renseignements, des simulations de guerre, et même de l’identification des cibles militaires.
Ethique et implications
Il pourrait surprendre certains d’apprendre qu’Anthropic, réputé pour ses lignes directrices éthiques, est impliqué dans des opérations militaires. Son PDG, Dario Amodei, a été en désaccord avec l’administration Trump sur des questions éthiques cruciales, notamment l’utilisation de Claude pour la surveillance des citoyens américains et l’usage d’armes autonomes létales.
Étonnamment, utiliser Claude pour choisir des cibles ne semble pas entrer en conflit avec les principes éthiques de l’entreprise. Ce paradoxe est d’autant plus inquiétant alors qu’Anthropic était déjà en pleine négociation conflictuelle avec le Pentagone sur l’utilisation de Claude dans ses systèmes classifiés.
La semaine dernière, le Pentagone a donné un ultimatum à Anthropic pour qu’elle abandonne ses restrictions sur la surveillance et les armes autonomes. Anthropic a laissé passer cette échéance sans céder, ce qui a été perçu comme une position ferme contre le militarisme de l’administration Trump.
Réflexion critique
Le journaliste Spencer Ackerman, lauréat du prix Pulitzer, a souligné que les lignes éthiques d’Anthropic n’ont pas pris en compte certaines réalités lors de la signature de leur accord avec le ministère de la Défense. Selon lui, Amodei ne voit pas le développement d’un panoptique de surveillance des étrangers comme un problème majeur. Il critique également l’idée que la société fasse preuve de prudence après avoir déjà engagé des relations avec des acteurs militarisés.
L’avertissement de Kojak
En commentant l’implication d’Anthropic dans cette affaire, Ackerman a comparé les actions de l’entreprise à prendre de l’argent de quelqu’un comme Doctor Doom pour développer des outils sans réaliser qu’il pourrait en faire un mauvais usage.
FAQ
Qu’est-ce qu’Anthropic ?
Anthropic est une entreprise spécialisée dans l’intelligence artificielle, connue pour développer des modèles de langage avancés, visant à promouvoir une utilisation éthique de l’IA.
Pourquoi ces attaques en Iran sont-elles importantes ?
Ces attaques ont des implications géopolitiques majeures et soulèvent des questions éthiques sur l’utilisation de l’IA dans le cadre militaire.
Quels sont les enjeux éthiques autour de l’IA militaire ?
Les discussions tournent souvent autour de la surveillance, de l’autonomie des machines et de l’impact des décisions prises par des systèmes automatisés sur la vie humaine.
Quel rôle joue Claude dans ces opérations ?
Claude est utilisé pour évaluer des données militaires, identifier des cibles et simuler des opérations de guerre, ce qui soulève des questions cruciales sur l’intervention de l’IA dans des contextes violents.
Quelle est la position de l’administration Trump sur ces questions ?
L’administration Trump a été critiquée pour son approche militariste, mettant la pression sur des entreprises comme Anthropic pour qu’elles participent à des efforts de surveillance et d’armement.
