Intelligence Artificielle

Le Miroir Biometrique : Le Verdict des Préjugés que Nous Avons Enseigné

Le Miroir Biometrique : Le Verdict des Préjugés que Nous Avons Enseigné

IMPRESSION INITIALE. Lors de notre première rencontre avec une personne, nous formons instinctivement des jugements instantanés. Cela arrive naturellement ; c’est dans notre nature d’être juges. En quelques secondes, nous pouvons déterminer leur sexe, leur origine ethnique, leur âge et même évaluer leur attrait physique, leur fiabilité ou leur bienveillance.

Après avoir passé du temps avec cette personne, nous réalisons souvent que nos premières impressions étaient erronées. Ce n’est pas bien grave, n’est-ce pas ?

Cependant, cela devient préoccupant lorsque l’on considère l’influence que ces jugements peuvent avoir sur les décisions prises par les intelligences artificielles (IA) du futur.

Pour sensibiliser à cette problématique, des chercheurs de l’Université de Melbourne ont mis au point le Miroir Biométrique.

PERCEPTION PUBLIQUE. Le Miroir Biométrique est un système d’IA qui scrute le visage d’une personne et affiche ensuite 14 caractéristiques à son sujet, comme son âge, son origine ethnique ou son niveau d’attractivité perçu.

Pour développer ce système, les chercheurs melbourniens ont demandé à des volontaires d’évaluer des milliers de photos selon ces mêmes critères. Cette évaluation a servi de référence pour le Miroir Biométrique lorsqu’il analyse de nouveaux visages. Comme ces jugements étaient subjectifs, les résultats du Miroir Biométrique le sont aussi. Par exemple, si la majorité des répondants humains pensent que les personnes portant une barbe semblent moins fiables, cela influencera le jugement du Miroir Biométrique à propos de ces individus.

Miroir Biométrique

ÉTHIQUE DE L’IA. Pour utiliser le Miroir Biométrique, il suffit de se tenir devant le système quelques secondes. Celui-ci analyse rapidement le visage et affiche les caractéristiques perçues sur un écran. L’IA invite ensuite la personne à réfléchir à la façon dont elle se sentirait si ces informations étaient partagées avec d’autres. Comment réagirait-elle si elle était écartée d’un emploi parce que l’IA la classait comme peu fiable ? Ou si les autorités la ciblaient parce qu’elle était jugée agressive ?

« Notre étude vise à susciter des questions difficiles concernant les limites de l’IA. Elle démontre à quel point il est facile de concevoir des IA capables de discriminer de manière problématique, ce qui peut avoir des conséquences pour la société », a déclaré Niels Wouters, le chercheur principal, dans un communiqué de presse. « En incitant au débat sur la vie privée et la surveillance de masse, nous espérons contribuer à une meilleure compréhension des enjeux éthiques liés à l’IA. »

ÉLIMINER LES BIAIS. Un système aussi biaisé que le Miroir Biométrique pourrait avoir des répercussions majeures à mesure que l’IA est de plus en plus utilisée pour prendre des décisions importantes. Ce n’est pas qu’une inquiétude pour l’avenir ; nous commençons déjà à voir des exemples dans les systèmes actuels. Alors que les chercheurs s’efforcent de créer des systèmes futurs sans ces défauts, il est crucial que le public réfléchisse aux impacts potentiels d’une IA biaisée sur la société. Le Miroir Biométrique pourrait jouer un rôle dans cette réflexion.

LIRE ENCORE : Tenir un Miroir Noir à l’Intelligence Artificielle [Université de Melbourne]

En savoir plus sur l’IA biaisée : Microsoft annonce un outil pour détecter l’IA biaisée, car nous continuons à en créer !

### FAQ

#### Qu’est-ce que le Miroir Biométrique ?
Le Miroir Biométrique est un système d’intelligence artificielle qui analyse les visages humains et fournit des jugements basés sur plusieurs caractéristiques telles que l’âge, la race et l’attractivité perçue.

#### Pourquoi les jugements des utilisateurs influencent-ils l’IA ?
Les résultats générés par l’IA sont basés sur des données subjectives, car les évaluations proviennent de milliers de personnes ayant des perceptions différentes, ce qui peut introduire des biais dans le système.

#### Quels sont les risques liés à une IA biaisée ?
Une IA biaisée peut mener à des discriminations dans divers domaines tels que l’emploi ou la justice, affectant ainsi la vie des individus de manière significative.

#### Comment peut-on éviter ces biais dans l’avenir ?
Il est essentiel que les chercheurs développent des méthodes robustes pour tester et corriger les biais existants dans les systèmes d’IA, ainsi qu’une sensibilisation accrue du public aux enjeux éthiques.

#### En quoi la réflexion sur l’éthique de l’IA est-elle importante ?
Aborder les questions éthiques entourant l’IA aide à prévenir l’implantation de systèmes injustes et à garantir que la technologie soit utilisée de manière bénéfique et équitable pour tous.

Quitter la version mobile