Intelligence Artificielle

Facebook Présente Des Excuses pour une IA Raciste Étiquetant les Hommes Noirs en Tant que ‘Primates’

Facebook Présente Des Excuses pour une IA Raciste Étiquetant les Hommes Noirs en Tant que 'Primates'

Une erreur inacceptable

Récemment, Facebook a présenté ses excuses après qu’un incident déplorable ait eu lieu concernant l’utilisation de son intelligence artificielle. Lorsqu’un vidéo, diffusée par le journal Daily Mail, montrait un homme blanc appelant la police sur un groupe d’hommes noirs, l’algorithme de Facebook a mal interprété la situation en qualifiant les hommes noirs de « primates ».

Les utilisateurs qui ont regardé cette vidéo ont été confrontés à une suggestion automatique leur demandant s’ils souhaitaient « continuer à voir des vidéos sur les primates ». Cette apparition de contenu inapproprié a déclenché une vague de critiques, et Facebook a réagi en qualifiant cet incident de « grave erreur », promettant d’éviter que cela se reproduise à l’avenir.

Réactions officielles

Dans un communiqué, un représentant de Facebook, Dani Lever, a déclaré que, bien qu’ils aient effectué des améliorations sur leur intelligence artificielle, ils reconnaissent qu’ils ont encore un long chemin à parcourir pour éviter ce genre de situation. Il a exprimé des excuses à toutes les personnes qui ont pu voir ces recommandations offensantes.

Racisme et technologies

Cet incident souligne un problème plus vaste et préoccupant : le racisme intégré dans certaines technologies d’intelligence artificielle. Il s’agit d’un exemple parmi tant d’autres dans un passé peu reluisant.

A lire :  OpenAI Subit des Pertes Incroyables avec ChatGPT

Par exemple, Twitter a également été critiqué pour sa fonctionnalité de recadrage d’image qui semblait favoriser les visages blancs au détriment des personnes de couleur. De même, l’outil de détection des discours haineux de Google a été accusé de biais envers les personnes noires. En 2015, leur application Photos avait même classé des individus noirs comme « gorilles », provoquant une réaction indignée du public.

À mesure que la technologie de l’apprentissage automatique et de l’intelligence artificielle progresse, il est crucial que les entreprises prennent des mesures significatives pour corriger ces inégalités au sein des technologies. Si ces compagnies souhaitent développer des produits inclusifs et équitables, elles doivent agir en conséquence.

En savoir plus

Pour approfondir votre compréhension de ce phénomène, vous pouvez consulter cet article sur Facebook : Facebook s’excuse après qu’une IA ait étiqueté des hommes noirs comme « primates » publié par le New York Times.

Une autre lecture intéressante est : L’intelligence artificielle laissée sans contrôle peut développer des préjugés d’elle-même.

FAQ

Pourquoi Facebook a-t-il utilisé le terme « primates » ?

Ce terme a été utilisé par erreur par l’algorithme de Facebook en réponse à une vidéo montrant des interactions entre un homme blanc et des hommes noirs.

Quelles autres entreprises ont rencontré des problèmes similaires ?

Outre Facebook, des plateformes comme Twitter et Google ont également été critiquées pour des biais raciaux dans leurs technologies d’intelligence artificielle.

Que fait Facebook pour améliorer ses algorithmes ?

Facebook a promis d’améliorer ses systèmes d’IA et de mettre en œuvre des mesures afin que de telles erreurs ne se reproduisent plus à l’avenir.

A lire :  Des Études sur l'IA Remettent en Question l'Unicité des Empreintes Digitales Humaines

Qu’est-ce que l’apprentissage automatique ?

L’apprentissage automatique est une branche de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre et de s’améliorer automatiquement à partir de données sans être explicitement programmés pour chaque tâche.

Pourquoi est-il important d’aborder ces biais dans la technologie ?

Éliminer les biais dans la technologie est crucial pour garantir que tous les utilisateurs reçoivent un traitement équitable et pour favoriser un environnement numérique inclusif.