</div>
<p>
<figcaption class="article-featured-image-caption">
<em>Image : Christian Torres / Anadolu via Getty</em>
</figcaption>
</p>
Initiative de l’administration sur l’IA
Récemment, le département américain de la Sécurité intérieure (DHS) a présenté une feuille de route pour l’intelligence artificielle. Cette démarche, signalée par The New York Times, en fait le premier ministère à adopter des mesures ambitieuses concernant l’IA. Pour mener à bien ce projet, le DHS a établi des collaborations avec des entreprises de la Silicon Valley telles que OpenAI, Meta (anciennement Facebook) et Anthropic. Leur objectif ? Développer des programmes pilotes d’IA destinés à l’administration gouvernementale.
Le choix de l’intégration
Le secrétaire du DHS, Alejandro Mayorkas, a affirmé qu’il est impératif de ne pas ignorer l’IA. C’est une technologie à laquelle il faut répondre, tant pour ses aspects positifs que pour les risques qu’elle présente. Il souligne l’importance d’agir rapidement avant qu’il ne soit trop tard.
Des projets controversés
Bien que l’intégration de l’IA semble prometteuse, certaines initiatives du DHS suscitent des interrogations éthiques. Par exemple, le département prévoit d’utiliser des chatbots pour former les agents en charge des interviews d’immigration. C’est une proposition qui soulève des doutes, surtout dans un système où la déshumanisation est déjà un problème. Utiliser des entités automatisées pour interagir avec des immigrants pourrait aggraver cette question.
Des défis à relever
Par ailleurs, le DHS envisage d’employer l’IA pour analyser des volumes massifs de données et améliorer les plans de préparation aux catastrophes. Bien que cela semble bénéfique, des experts mettent en garde sur les biais persistants dans les systèmes d’IA, qui pourraient avoir des conséquences néfastes pour les populations vulnérables lors des urgences. Le DHS assure qu’il cherche à créer une IA responsable, mais les défis techniques demeurent.
En outre, le département annonce son intention d’utiliser l’IA pour récupérer des données et établir des résumés concernant les enquêtes sur les crimes liés aux enfants ou au trafic d’êtres humains. Bien que ces problèmes soient cruciaux, la capacité de l’IA à générer des résumés fiables pendant des enquêtes reste à prouver, surtout en raison de sa tendance à produire des informations inexactes.
Vers de nouveaux horizons
Le DHS ne considère pas ces projets comme figés. Ils ont indiqué à The New York Times qu’ils partageront les résultats de ces initiatives d’IA d’ici la fin de l’année. Ce qui est clair, c’est que la compétition pour obtenir des contrats avec le gouvernement s’intensifie dans la Silicon Valley, et il est probable que d’autres développements émergent à l’avenir.
Alejandro Mayorkas a également précisé qu’il est crucial de collaborer avec le secteur privé pour établir des normes sur l’utilisation responsable de l’IA générative.
FAQ
Qu’est-ce qu’une feuille de route en IA ?
Une feuille de route en IA décrit les objectifs et les stratégies d’un organisme pour intégrer cette technologie dans ses opérations tout en traitant les risques associés.
Comment l’IA peut-elle aider en cas de catastrophe ?
L’IA peut analyser de grandes quantités de données en temps réel, ce qui permet de prédire des événements et de mieux planifier les réponses d’urgence.
Quels sont les risques éthiques de l’utilisation de l’IA dans l’immigration ?
L’un des principaux risques est la déshumanisation des individus concernés, en remplaçant les interactions humaines par des systèmes automatisés qui pourraient не tenir compte des nuances émotionnelles.
Comment s’assure-t-on de l’efficacité de l’IA dans les enquêtes ?
Les résultats des programmes pilotes permettrons de tester l’efficacité de l’IA, mais leur capacité à fournir des informations précises pose encore des questions.
Quel est l’impact potentiel des biais dans les systèmes d’IA ?
Les biais peuvent conduire à des décisions injustes ou inappropriées, notamment en affectant négativement les populations déjà vulnérables lors des urgences.
