Des systèmes de reconnaissance faciale biaisés
Le gouvernement britannique a décidé d’utiliser une intelligence artificielle de reconnaissance faciale pour vérifier les photos des voyageurs lors de la demande de passeports. Bien que ce système fonctionne correctement pour les personnes à la peau claire, il présente des défaillances lorsqu’il s’agit de personnes à la peau plus foncée. Ce phénomène n’est pas une surprise, car de nombreux systèmes algorithmiques souffrent de ce problème.
Un historique de préjugés
La partialité contre les personnes noires dans le domaine technologique est un phénomène bien connu. Les algorithmes, lorsqu’ils sont alimentés par des données biaisées, ont tendance à renforcer les stéréotypes et les préjugés. Ce qui est particulièrement alarmant dans le cas de cette technologie de vérification de photos de passeport, c’est que le gouvernement britannique était conscient des limitations, comme le rapporte New Scientist, mais a décidé de mettre le système en service malgré tout.
Incohérences révélées
Des documents internes récemment publiés montrent que les mêmes disparités raciales se sont manifestées durant les tests. Le système a signalé à des personnes à la peau plus foncée que leurs photos ne respectaient pas les normes requises pour les passeports. Les documents mentionnent : « Des recherches ont été menées auprès de divers groupes ethniques et ont révélé que les personnes à la peau très claire ou très foncée avaient des difficultés à fournir une photo de passeport acceptable. Toutefois, la performance générale a été jugée suffisante pour le déploiement. »
Disparités dans l’expérience utilisateur
Lorsqu’un individu ne parvient pas à faire accepter sa photo par le système, il a la possibilité de contourner cette décision et de soumettre quand même sa demande. Cependant, cette action peut entraîner des avertissements quant à un potentiel impact négatif sur l’avancement de sa demande. Un ingénieur de l’Université de Washington, Os Keyes, souligne que même si les utilisateurs peuvent ignorer le critère de sélection, cela entraîne une inégalité dans l’expérience entre les utilisateurs, souvent en fonction de leur origine ethnique.
Lecture complémentaire
- Découvrez-en plus sur ce sujet : Le Royaume-Uni a lancé un vérificateur de photos de passeport qu’il savait inefficace pour les peaux foncées [New Scientist]
- À propos de la reconnaissance faciale : Des sous-traitants de Google ont piégé des personnes noires sans-abri avec des analyses faciales.
FAQ
Qu’est-ce que l’intelligence artificielle de reconnaissance faciale ?
L’intelligence artificielle de reconnaissance faciale analyse et identifie les visages dans des images, mais son efficacité varie selon la couleur de peau des personnes.
Pourquoi certaines personnes sont-elles désavantagées par ces algorithmes ?
De nombreux algorithmes sont formés à partir de données non représentatives, ce qui leur fait éprouver des difficultés à traiter les images de personnes ayant des caractéristiques physiques variées.
Comment peut-on remédier à ce type de problème ?
Il est essentiel de former les algorithmes sur des ensembles de données diversifiés et représentatifs pour éviter la partialité systémique et améliorer l’exactitude pour tous les utilisateurs.
Existe-t-il des réglementations concernant l’utilisation de la reconnaissance faciale ?
Les réglementations varient selon les pays, mais une attention croissante est portée aux implications éthiques et à la transparence de l’utilisation de ces technologies.
Comment les utilisateurs peuvent-ils s’assurer que leurs photos sont acceptées ?
La meilleure approche est de suivre les directives fixées par les organismes de réglementation et de s’assurer que les photos respectent les criterias exigés, tout en étant conscient des limitations potentielles des systèmes automatisés.
