Réflexion après coup
Vous vous rappelez peut-être de l’énorme agitation de l’année dernière, lorsque l’on a réalisé que l’algorithme de Twitter, conçu pour rogner automatiquement les images téléchargées, favorisait les visages blancs par rapport aux visages noirs. Cette situation a révélé un autre exemple de la manière dont le racisme institutionnel est intégré dans les algorithmes que nous utilisons au quotidien.
Finalement, Twitter a cessé d’utiliser cet algorithme, mais il reste désireux d’apprendre de ses erreurs. Récemment, la plateforme a invité des chercheurs à la conférence Def Con pour découvrir d’autres exemples de biais algorithmique. Cela démontre une volonté d’amélioration et d’auto-évaluation face aux critiques.
Il s’agit là d’une démarche significative pour une entreprise technologique qui aurait pu choisir de minimiser cette polémique. Plutôt que d’esquiver le sujet, Twitter a collaboré avec des chercheurs pour identifier d’autres formes de discrimination présente dans son système.
Blanc, Jeune et Beau
Au-delà du biais racial qui a fait beaucoup de bruit, les équipes de recherche ont constaté que l’algorithme rognait également les images de Musulmans, de personnes handicapées et de personnes âgées.
Les chercheurs ont révélé que cet algorithme écartait systématiquement les fauteuils roulants, ignorait les visages avec des cheveux blancs, et négligeait ceux portant un voile. En d’autres termes, si une image ne montrait pas un visage blanc, jeune et conventionnellement attrayant, Twitter avait tendance à l’éliminer au profit d’une image qui correspondait à ce stéréotype.
Parham Aarabi, directeur du groupe d’IA appliquée de l’Université de Toronto et participant à ces recherches, a souligné que presque chaque système d’IA majeur qu’ils ont étudié présente d’importants biais. Il estime qu’il est crucial d’examiner de tels biais, car ils persistent à travers tous les systèmes d’IA.
En savoir plus :
-
Découvrez ici : L’algorithme raciste de Twitter est également âgiste, déficient et islamophobe, selon les chercheurs
-
Dossier sur l’IA biaisée : L’IA de Google détectant les discours de haine est biaisée contre les Noirs.
FAQ
Quels sont les exemples supplémentaires de biais dans les algorithmes ?
Les recherches montrent que de nombreux algorithmes de traitement d’images ignorent les caractéristiques de diversité, incluant le type de cheveux, les styles vestimentaires culturels, et même les expressions faciales liées à des identity.
Pourquoi la diversité dans les algorithmes est-elle importante ?
Une représentation diversifiée dans les algorithmes permet de créer des systèmes plus justes qui ne renforcent pas les stéréotypes, assurant ainsi que toutes les voix soient entendues et représentées équitablement.
Quels sont les impacts des biais algorithmiques sur la société ?
Les biais algorithmiques peuvent conduire à une discrimination accrue dans des secteurs comme le travail, l’éducation et même les services de santé, exacerbant ainsi les inégalités sociales.
Que fait Twitter pour corriger ses biais ?
Twitter collabore avec des chercheurs, effectue des audits internes et s’engage à ajuster ses algorithmes pour éviter de reproduire des préjugés raciaux et d’autres formes de discrimination.
Comment les utilisateurs peuvent-ils signaler des biais sur les réseaux sociaux ?
Les utilisateurs peuvent signaler des contenus ou des comportements biaisés via des outils de signalement proposés par les plateformes, et il est vivement encouragé de faire part de ses expériences pour favoriser une meilleure compréhension des problèmes rencontrés.
