Intelligence Artificielle

Amazon a conçu une IA pour évaluer les candidatures, mais elle présente un biais sexiste.

Amazon a conçu une IA pour évaluer les candidatures, mais elle présente un biais sexiste.

Problèmes d’Intelligence Artificielle et Équité

Un Outil de Recrutement Défaillant

En 2014, Amazon a mis au point une intelligence artificielle destinée à analyser les curriculums vitae des candidats. Cependant, dès l’année suivante, l’entreprise a constaté un grave défaut dans le système : celui-ci avait une tendance à défavoriser les femmes.

La Déception des Développeurs

D’après plusieurs témoins qui ont partagé leurs informations avec Reuters, Amazon a investi des années à élaborer un algorithme reposant sur le machine learning pour détecter les candidats les plus aptes au sein des candidatures reçues. Mais en 2017, l’entreprise a décidé d’abandonner cet outil, conscient qu’il n’était pas en mesure de garantir une évaluation équitable des candidates.

Un porte-parole d’Amazon a précisé à Futurism que cet algorithme n’a jamais été utilisé par les recruteurs de l’entreprise pour évaluer les candidats.

Données Problématiques

Le défi principal, selon les sources anonymes d’Amazon, résidait dans la manière dont l’IA avait été formée. Celle-ci s’appuyait sur les curriculums vitae collectés pendant une décade. Bien qu’il ne soit pas clairement indiqué dans le rapport de Reuters, il semble que les chercheurs aient voulu entraîner l’IA à reconnaître des curriculums similaires à ceux des candidats retenus dans le passé.

A lire :  OpenAI Déploie ChatGPT au Pentagone : L'Armée Renforce l'Accès à l'IA

Étant donné que la majorité des employés d’Amazon sont des hommes — 17 sur 18 des postes de direction étant occupés par des hommes — il semblerait que l’IA ait naturellement favorisé les candidats masculins.

Un Monde Biaisé

L’entraînement des intelligences artificielles avec des données biaisées est devenu un défi majeur dans le domaine du machine learning. Une enquête menée par ProPublica a révélé qu’un algorithme prédictif, utilisé dans le domaine judiciaire, avait des biais raciaux défavorisant les personnes noires. Un autre exemple emblématique est celui de Tay, un chatbot développé par Microsoft, qui a rapidement commencé à proférer des insultes racistes après avoir interagi avec des utilisateurs malveillants sur Twitter.

Aujourd’hui, l’industrie technologique fait face à un réel enjeu : développer des IA impartiales dans un environnement où toutes les données d’entraînement proviennent d’un monde déjà biaisé.

L’histoire a été actualisée avec des déclarations d’un représentant d’Amazon.

FAQ

Qu’est-ce qui est considéré comme des données biaisées ?

Les données biaisées peuvent provenir d’un échantillon non représentatif de la population ou de préjugés systémiques dans les données collectées. Par exemple, un ensemble de données qui inclut principalement des candidats masculins peut entraîner une IA à favoriser ce genre.

Comment les entreprises peuvent-elles éviter ces biais ?

Les entreprises doivent diversifier leurs sources de données, s’assurer que les algorithmes sont testés pour des biais potentiels et revoir régulièrement leurs processus pour garantir l’équité.

Quel impact ces biais peuvent-ils avoir sur les opportunités d’emploi ?

Les biais dans les outils de recrutement peuvent mener à une représentation inégale des genres et des ethnies au sein des entreprises, limitant ainsi les opportunités pour certains groupes.

A lire :  Un Avenir Proche : Votre IA Participera aux Réunions à Votre Place

Existe-t-il des lois contre la discrimination dans le recrutement ?

Oui, dans de nombreux pays, des lois protègent les candidats de la discrimination basée sur le genre, la race ou d’autres caractéristiques personnelles dans le processus de recrutement.

Quel est le rôle de la transparence dans le développement des IA ?

La transparence est cruciale pour identifier les biais dans les algorithmes. Les entreprises doivent être ouvertes sur les processus de développement et les données utilisées pour s’assurer que l’IA fonctionne de manière équitable.