Utilisation problématique de la reconnaissance faciale par Rite Aid
Lorsque des entreprises et des organisations choisissent d’adopter la technologie de reconnaissance faciale pour des raisons de surveillance ou de sécurité, les résultats peuvent être largement inexactes. Cette approche a souvent conduit à des conséquences désastreuses.
L’exemple de Rite Aid
Un des cas les plus révélateurs concerne la chaîne de pharmacies Rite Aid. Dans une tentative de lutter contre le vol à l’étalage, la société a utilisé une technologie de reconnaissance faciale défectueuse dans ses magasins. Au lieu de dissuader les voleurs, cela a entraîné des accusations à tort d’infractions pour des clients innocents, souvent en raison de discriminations raciales, comme le rapporte le célèbre journal The Washington Post.
Cette semaine, la Commission fédérale du commerce (FTC) a sanctionné Rite Aid pour cette mauvaise utilisation de la technologie, interdisant à la chaîne de l’utiliser pendant cinq ans et lui infligeant également d’autres pénalités.
Dans un communiqué, Samuel Levine, directeur du Bureau de protection des consommateurs de la FTC, a déclaré : « L’utilisation irréfléchie des systèmes de surveillance par Rite Aid a conduit ses clients à subir humiliations et autres préjudices, mettant également en danger des informations sensibles. Cet ordre historique montre que la Commission sera vigilante pour protéger le public contre la surveillance biométrique injuste et les mauvaises pratiques en matière de sécurité des données. »
Les erreurs de la technologie
D’après la FTC, Rite Aid a déployé cette technologie entre 2012 et 2020 pour identifier des voleurs présumés et d’autres clients affichant un comportement jugé suspect. Cependant, cette technologie a généré des milliers de faux positifs.
Elle a particulièrement touché des clients noirs, hispaniques et des femmes, et a été principalement implantée dans des quartiers à prédominance non blanche. La FTC a également signalé que des enfants innocents avaient été signalés, y compris une affaire où une petite fille de 11 ans en a été victime. La mère de l’enfant a déclaré à Rite Aid que sa fille était tellement bouleversée par l’incident qu’elle avait dû manquer le travail.
Rite Aid a affirmé dans une déclaration être en conformité avec la décision de la FTC, précisant que l’utilisation de cette technologie faisait partie d’un programme pilote déployé dans un nombre limité de magasins. Néanmoins, peu importe les excuses de l’entreprise, cette décision de la FTC est un vent de changement nécessaire concernant l’utilisation de la reconnaissance faciale, qui semble mener vers un futur dystopique.
À lire aussi sur les dangers de la reconnaissance faciale : La police a surveillé le concert de Beyoncé à la recherche de pédophiles et de terroristes
FAQ
Qu’est-ce que la technologie de reconnaissance faciale ?
La reconnaissance faciale est une technologie qui identifie ou vérifie l’identité d’une personne en analysant des caractéristiques de son visage à partir d’images ou de vidéos.
Quels sont les risques associés à la reconnaissance faciale ?
Les risques incluent des erreurs d’identification, la discrimination raciale, la violation de la vie privée et un potentiel abus par les autorités.
Comment la FTC régule-t-elle l’utilisation de cette technologie ?
La FTC met en place des règles et des sanctions pour garantir que la technologie de surveillance respecte les droits des consommateurs et évite des abus.
Y a-t-il des alternatives à la reconnaissance faciale pour la sécurité ?
Oui, des méthodes alternatives incluent l’utilisation de systèmes de sécurité basés sur des caméras traditionnelles, des télécommandes d’alarme, ou encore le renforcement de la formation du personnel pour surveiller le comportement des clients.
Pourquoi l’utilisation de la reconnaissance faciale suscite-t-elle tant de controverses ?
Cette technologie soulève des préoccupations éthiques et de sécurité, notamment en ce qui concerne la discrimination, la surveillance invasive et le manque de transparence dans son fonctionnement et ses biais.
