Intelligence Artificielle

Des Développeurs Conçoivent des Croquis de Police avec l’IA : Quels Risques Cela Implique-t-il ?

Des Développeurs Conçoivent des Croquis de Police avec l'IA : Quels Risques Cela Implique-t-il ?

## Portraits de suspects

De nombreuses utilisations de l’intelligence artificielle (IA) peuvent être problématiques. Parmi elles, l’idée d’utiliser une IA pour générer des portraits policiers semble risquée.

D’après un article de Vice, des développeurs indépendants ont conçu un programme nommé “Forensic Sketch AI-rtist”. Ce dernier utilise l’IA DALL-E 2 d’OpenAI, capable de transformer des descriptions textuelles en images, pour créer des portraits composites de suspects d’une précaution d’hyper-réalité.

Bien qu’ils n’aient pas encore lancé le logiciel, les développeurs envisagent de collaborer avec des services de police pour obtenir des données nécessaires à des tests, selon une déclaration conjointe à Vice.

Pour l’utilisateur, le programme fonctionne à travers un modèle de formulaire à remplir qui demande des informations telles que le genre, l’âge, la couleur de peau, les cheveux, les sourcils, les yeux, le nez, la barbe, et même des détails sur la mâchoire d’un suspect. Une fois le formulaire complété, il suffit de choisir le nombre d’images à générer et de cliquer sur “générer le profil”.

Ensuite, le système produit des esquisses grâce à DALL-E d’OpenAI. Voici donc comment pourrait se matérialiser la justice !

## Biais sur Biais

Malheureusement, cette méthode est intrinsèquement défectueuse et ne reflète pas la façon dont les humains se rappellent véritablement des visages.

Comme l’indique Jennifer Lynch de l’Électronic Frontier Foundation dans ses paroles à Vice, “la recherche a prouvé que les humains mémorisent les visages de manière globale, et non par caractéristique”.

A lire :  Un Économiste du MIT Critique l'Hystérie autour de l'IA : Trop de Limites pour Influencer l'Emploi.

Elle souligne également qu’un processus d’esquisse basé sur des descriptions individuelles, comme celui proposé par ce programme d’IA, peut aboutir à des portraits très éloignés de la réalité. Il est même possible que, après avoir vu un portrait généré, un témoin modifie ses propres souvenirs, en particulier si l’illustration est particulièrement réaliste.

Cette situation soulève des préoccupations concernant les biais de l’IA, notamment des biais raciaux, qui existent déjà dans les représentations humaines. OpenAI a d’ailleurs été critiqué pour que DALL-E 2 produise parfois des résultats biaisés, stereotypés et même carrément racistes et misogynes.

Sasha Luccioni, chercheuse chez Hugging Face, explique que ce sont souvent des groupes marginalisés qui souffrent d’un traitement encore plus injuste de la part de ces technologies, en raison des biais préexistants dans les ensembles de données. Selon elle, “c’est un facteur multiplicateur”.

Au final, cette approche crée une chaîne de biais ininterrompue : ceux du témoin, des policiers qui l’interrogent, et maintenant d’une IA centralisée et défaillante. Tout ce qu’elle produit, peu importe la justesse, ne fait que renforcer les préjugés des individus et des systèmes impliqués, ainsi que ceux du public qui verra ces images générées.

Plus d’infos sur l’IA générative : Des policiers publient une image d’un suspect générée à partir d’ADN, puis retirent l’image après des critiques massives.

### FAQ

#### Qu’est-ce que DALL-E 2 ?
DALL-E 2 est un modèle d’intelligence artificielle conçu par OpenAI, capable de créer des images à partir de descriptions textuelles, offrant ainsi des possibilités créatives importantes dans de nombreux domaines.

#### Pourquoi l’utilisation de l’IA pour générer des portraits policiers est-elle problématique ?
Cette utilisation peut fausser la mémoire des témoins et créer des représentations biaisées, ce qui complique davantage l’identification des suspects.

A lire :  L'IA de ChatGPT : Une Menace Croissante pour la Sécurité des Emails de Phishing, selon IBM

#### Quelles sont les conséquences des biais dans les données d’apprentissage de l’IA ?
Les biais peuvent mener à des résultats injustes et stéréotypés, affectant négativement des groupes déjà vulnérables dans la société.

#### Comment une IA peut-elle modifier la perception d’un témoin ?
Lorsqu’un témoin voit un portrait généré par l’IA, il peut être influencé par cette image, remplaçant potentiellement son propre souvenir par une version biaisée ou déformée.

#### Y a-t-il des alternatives éthiques à l’utilisation de l’IA dans les enquêtes policières ?
Certaines approches promeuvent l’utilisation d’outils basés sur des témoignages humains et des techniques de justice réparatrice pour améliorer l’identification des suspects sans les biais d’IA.