Intelligence Artificielle

San Francisco : L’IA au service d’une justice plus équitable.

San Francisco : L'IA au service d'une justice plus équitable.

## Défi de la Cécité Colorimétrique

Nous avions déjà constaté qu’une intelligence artificielle pouvait refléter les biais raciaux de son créateur.

Cependant, San Francisco envisage que la technologie puisse aussi jouer un rôle positif en identifiant et en atténuant les préjugés raciaux. La ville a l’intention de mettre cette théorie à l’épreuve, une initiative qui pourrait transformer le système judiciaire de façon durable.

## Effacer les Indications Raciales

Le mercredi, le procureur de San Francisco, George Gascon, a annoncé que les procureurs de la ville vont commencer à utiliser un outil de « mitigation des biais », alimenté par l’intelligence artificielle, développé par des chercheurs de l’Université de Stanford à partir du 1er juillet.

Cet outil se charge d’analyser les rapports policiers et de supprimer automatiquement toute information pouvant indiquer la race d’un individu. Cela pourrait inclure des éléments tels que le nom de famille, la couleur des yeux, la couleur des cheveux ou encore le lieu de résidence.

Il élimine également toutes les informations susceptibles d’identifier les forces de l’ordre impliquées dans l’affaire, comme leur numéro de badge, a précisé un porte-parole du procureur à The Verge.

## Deux Tentatives

Les procureurs examineront ces rapports expurgés, prendront note de leur décision quant à la mise en accusation d’un suspect, puis consulteront le rapport original avant de rendre leur décision finale.

D’après Gascon, suivre les changements entre les décisions initiale et finale pourrait permettre de déceler tout biais racial dans le processus d’accusation.

A lire :  « TikTok Plonge Dans le Silencio : Retrait Massif de Musiques par une Grande Maison de Disques »

« Cette technologie aidera à réduire les biais implicites qui pourraient entacher l’intégrité des décisions ayant de lourdes conséquences pour les accusés, » a déclaré Gascon. « Cela contribuera à rendre notre système judiciaire plus équitable et juste », rapporte le San Francisco Examiner.

POUR EN SAVOIR PLUS : San Francisco prévoit d’utiliser l’IA pour réduire les biais lors des accusations criminelles [The Verge]

En savoir plus sur l’IA : Un nouvel algorithme forme l’IA à corriger ses biais

### FAQ

#### Qu’est-ce qu’un outil de mitigation des biais ?
Un outil de mitigation des biais est une technologie conçue pour identifier et réduire les biais dans les décisions prises par les humains, en particulier dans des domaines sensibles comme le système judiciaire.

#### Comment cet outil fonctionne-t-il ?
L’outil analyse des documents, tels que des rapports policiers, et supprime des informations spécifiques qui pourraient introduire un biais racial, comme les noms, les couleurs des cheveux ou des yeux, et les lieux associés à des individus.

#### Quelles sont les conséquences d’un biais dans le processus judiciaire ?
Un biais dans le processus judiciaire peut mener à des accusations injustes ou à des traitements inéquitables des individus en fonction de leur race ou de leur origine ethnique, affectant ainsi la justice sociale.

#### Quels sont les avantages de l’utilisation de l’IA dans le domaine judiciaire ?
L’utilisation de l’IA peut apporter une plus grande impartialité et une transparence accrue dans le processus de prise de décision, tout en éliminant des préjugés potentiels liés aux biais humains.

#### Existe-t-il des critiques concernant l’utilisation de l’IA dans le système judiciaire ?
Oui, certaines critiques soulignent que l’IA pourrait introduire ses propres biais si elle est alimentée avec des données biaisées et qu’elle ne peut pas remplacer complètement le jugement humain dans les affaires judiciaires.

A lire :  OpenEvidence : la startup qui valorise l'IA pour les médecins atteint 12 milliards de dollars.