Intelligence Artificielle

Le Royaume-Uni Était Conscient des Biais Racistes de Son IA de Passeport — Et a Persisté Quand Même.

Le Royaume-Uni Était Conscient des Biais Racistes de Son IA de Passeport — Et a Persisté Quand Même.

Des systèmes de reconnaissance faciale biaisés

Le gouvernement britannique a décidé d’utiliser une intelligence artificielle de reconnaissance faciale pour vérifier les photos des voyageurs lors de la demande de passeports. Bien que ce système fonctionne correctement pour les personnes à la peau claire, il présente des défaillances lorsqu’il s’agit de personnes à la peau plus foncée. Ce phénomène n’est pas une surprise, car de nombreux systèmes algorithmiques souffrent de ce problème.

Un historique de préjugés

La partialité contre les personnes noires dans le domaine technologique est un phénomène bien connu. Les algorithmes, lorsqu’ils sont alimentés par des données biaisées, ont tendance à renforcer les stéréotypes et les préjugés. Ce qui est particulièrement alarmant dans le cas de cette technologie de vérification de photos de passeport, c’est que le gouvernement britannique était conscient des limitations, comme le rapporte New Scientist, mais a décidé de mettre le système en service malgré tout.

Incohérences révélées

Des documents internes récemment publiés montrent que les mêmes disparités raciales se sont manifestées durant les tests. Le système a signalé à des personnes à la peau plus foncée que leurs photos ne respectaient pas les normes requises pour les passeports. Les documents mentionnent : « Des recherches ont été menées auprès de divers groupes ethniques et ont révélé que les personnes à la peau très claire ou très foncée avaient des difficultés à fournir une photo de passeport acceptable. Toutefois, la performance générale a été jugée suffisante pour le déploiement. »

A lire :  Un homme tombe amoureux d'une IA : une rencontre fatale.

Disparités dans l’expérience utilisateur

Lorsqu’un individu ne parvient pas à faire accepter sa photo par le système, il a la possibilité de contourner cette décision et de soumettre quand même sa demande. Cependant, cette action peut entraîner des avertissements quant à un potentiel impact négatif sur l’avancement de sa demande. Un ingénieur de l’Université de Washington, Os Keyes, souligne que même si les utilisateurs peuvent ignorer le critère de sélection, cela entraîne une inégalité dans l’expérience entre les utilisateurs, souvent en fonction de leur origine ethnique.

Lecture complémentaire

FAQ

Qu’est-ce que l’intelligence artificielle de reconnaissance faciale ?

L’intelligence artificielle de reconnaissance faciale analyse et identifie les visages dans des images, mais son efficacité varie selon la couleur de peau des personnes.

Pourquoi certaines personnes sont-elles désavantagées par ces algorithmes ?

De nombreux algorithmes sont formés à partir de données non représentatives, ce qui leur fait éprouver des difficultés à traiter les images de personnes ayant des caractéristiques physiques variées.

Comment peut-on remédier à ce type de problème ?

Il est essentiel de former les algorithmes sur des ensembles de données diversifiés et représentatifs pour éviter la partialité systémique et améliorer l’exactitude pour tous les utilisateurs.

Existe-t-il des réglementations concernant l’utilisation de la reconnaissance faciale ?

Les réglementations varient selon les pays, mais une attention croissante est portée aux implications éthiques et à la transparence de l’utilisation de ces technologies.

A lire :  Journaliste Robot Accusé de Discrimination Raciale

Comment les utilisateurs peuvent-ils s’assurer que leurs photos sont acceptées ?

La meilleure approche est de suivre les directives fixées par les organismes de réglementation et de s’assurer que les photos respectent les criterias exigés, tout en étant conscient des limitations potentielles des systèmes automatisés.