Biais Algorithmique
Microsoft a récemment engagé un processus de réduction d’effectifs, remplaçant plusieurs journalistes par une intelligence artificielle chargée de parcourir les nouvelles. Cependant, cet outil a suscité la controverse en raison d’un cas évident de biais racial dans son fonctionnement.
L’intelligence artificielle ne produit pas de nouvelles originales, elle se contente de rechercher des articles sur Internet pour alimenter la plateforme MSN. Récemment, elle a confondu deux membres de couleur du groupe Little Mix, en associant une photo de Leigh-Anne Pinnock à un article concernant Jade Thirlwall. Selon un rapport du Guardian, cet incident met en lumière les lacunes des algorithmes, notamment leur difficulté à reconnaître les personnes de couleur.
Cet incident est révélateur des stéréotypes raciaux persistants dans les algorithmes d’intelligence artificielle qui sont souvent peu performants dans ce domaine.
Ironie Cruelle
Dans un tournant tragique, l’article que cette intelligence artificielle a complètement raté traitait du harcèlement raciste que Thirlwall a subi en tant que l’une des trois personnes de couleur dans son école catholique.
Sur Instagram, Thirlwall a partagé sa frustration concernant la confusion : « Cela arrive à Leigh-Anne et à moi tout le temps au point où c’est devenu une blague récurrente. Cela m’offense que vous ne puissiez pas différencier deux femmes de couleur sur quatre membres d’un groupe… FAITES MIEUX ! »
Mesures Correctives
Un porte-parole de Microsoft a affirmé que l’image erronée avait été remplacée dès que l’erreur a été signalée, mais n’a pas réagi au problème plus vaste du biais racial dans l’algorithme de la salle de rédaction.
Les employés restants de MSN auraient reçu l’ordre de faire de la gestion de crise, en surveillant le site pour enlever tout article embarrassant relatif à cet incident.
LIRE AUSSI : L’éditeur robot de Microsoft confond des chanteuses de Little Mix [The Guardian]
Découvrez aussi : MSN licencie des journalistes pour les remplacer par de l’IA
FAQ
Qu’est-ce que le biais algorithmique ?
Le biais algorithmique désigne les erreurs ou préjugés que peuvent avoir les algorithmes, souvent en raison des données biaisées sur lesquelles ils sont entraînés.
Pourquoi est-ce un problème important dans le journalisme ?
Cela peut avoir des conséquences graves, comme la propagation de stéréotypes et d’informations erronées, ce qui nuit à la représentation équitable dans les médias.
Comment peut-on améliorer les intelligences artificielles pour éviter ces biais ?
Des solutions incluent l’entraînement avec des ensembles de données diversifiés et la mise en place de contrôles humains dans le processus.
Quelles sont les implications du remplacement des journalistes par des algorithmes ?
Cela peut entraîner une perte de la qualité et de la nuance dans le journalisme, ainsi qu’une déshumanisation du contenu informatif.
Quels sont les autres exemples de biais dans les technologies ?
D’autres exemples incluent des biais raciaux dans des systèmes de reconnaissance faciale et des algorithmes de sélection de candidats dans le recrutement.
