Accord entre le Pentagone et xAI
Le Pentagone vient de conclure un accord avec xAI, l’entreprise d’Elon Musk, permettant l’utilisation de son chatbot Grok sur des systèmes classifiés. Cet accord s’applique aux applications légales de l’IA, selon ce que rapportent plusieurs médias, dont Axios.
Le contexte des opérations militaires
Jusqu’à présent, le seul modèle d’IA utilisé par le Pentagone pour ses missions les plus sensibles était Claude, développé par Anthropic. Toutefois, une controverse a récemment surgi entre le département de la défense et la société Anthropic. Le point litigieux : l’usage de la technologie par les militaires pour des armes autonomes et la surveillance de la population américaine.
Discussions entre responsables
Il a été rapporté que le Secrétaire à la Défense, Pete Hegseth, et Dario Amodei, le PDG d’Anthropic, ont prévu de se rencontrer afin d’aborder les préoccupations soulevées par ces enjeux.
Les autres acteurs de l’IA
D’après des informations de The New York Times, le Pentagone discute également avec OpenAI et Google pour éventuellement intégrer leurs modèles d’IA dans des systèmes classifiés. Comme avec Anthropic, le Pentagone exige que ces entreprises respectent sa norme d’“usage légal”.
Les risques liés à l’IA militaire
Des experts, comme ceux de l’organisation Diplo, soulignent les dangers associés à l’utilisation de l’IA dans un contexte militaire. Selon eux, deux problèmes majeurs se posent : les décisions opaques et les biais. Les décisions opaques se réfèrent à des résultats d’IA qui ne peuvent pas être clairement expliqués. Par exemple, un système d’IA peut déterminer un profil de cible sans fournir de justification compréhensible pour ses conclusions.
Si les officiers militaires ne comprennent pas les fondements des décisions prises par l’IA, cela complique considérablement l’évaluation de leur pertinence ou de leur exactitude.
Décisions critiques et biais
Dans le domaine militaire, où chaque seconde compte, ces décisions opaques peuvent être particulièrement préoccupantes. Par ailleurs, dans des situations floues comme celles de la guerre, il devient difficile de déterminer si une décision d’IA est influencée par un biais.
Forcément, le biais dans les systèmes d’IA est inévitable, selon Diplo. En effet, ces technologies sont souvent formées à partir de données issues de vidéos de surveillance, de schémas comportementaux, et de bases de données biométriques, toutes potentiellement biaisées selon la race, la religion ou la géographie.
La nécessité de garde-fous
Face à ces inquiétudes, de nombreux spécialistes de l’IA estiment qu’il est crucial de mettre en place des règles strictes pour encadrer l’utilisation de ces modèles. Mais en insistant sur cette norme d’“usage légal”, le Pentagone semble refuser de mettre en œuvre ces précautions pourtant jugées nécessaires par beaucoup.
Impact de l’IA sur la vie quotidienne
Il est à noter que l’adoption de l’IA a également des répercussions sur des aspects de la vie quotidienne. Les consommateurs ressentent cette pression, puisque les prix de l’électricité ont augmenté en raison de la demande accrue des centres de données alimentant les modèles d’IA, qui mettent à l’épreuve le réseau électrique.
FAQ
Qu’est-ce que le chatbot Grok ?
Le chatbot Grok est un système développé par xAI, destiné à interagir et à traiter des informations, y compris sur des systèmes classifiés.
Quelles sont les implications de l’accord entre le Pentagone et xAI ?
Cet accord permet l’expérimentation des modèles d’IA dans des contextes sensibles, avec de possibles effets sur la façon dont les décisions militaires sont prises.
Pourquoi les experts s’inquiètent-ils des biais dans l’IA ?
Les biais dans l’IA peuvent mener à des décisions injustes ou inappropriées, en particulier dans des situations critiques où des vies humaines sont en jeu.
Quels sont les exemples de l’utilisation de l’IA en dehors du secteur militaire ?
En dehors du domaine militaire, l’IA est utilisée dans la santé, les finances, et même dans les services clients, modifiant la façon dont les entreprises interagissent avec les consommateurs.
Quelles mesures de précaution devraient être mises en place pour l’utilisation de l’IA ?
Des mesures comme la transparence des algorithmes, des audits réguliers, et la mise en œuvre de protocoles de vérification des décisions sont souvent recommandées par les experts.
