Inscription à la newsletter : Voir le futur aujourd’hui
Ne ratez pas les véritables avancées du domaine scientifique et technologique. L’avenir vous attend !
Enquête sur les pratiques de Google
Pour que la nouvelle fonctionnalité de déverrouillage facial de Google fonctionne correctement sur toutes les morphologies, l’entreprise devait rassembler des données provenant de tous les types de visages.
Cela semble relever des bases de l’apprentissage automatique, n’est-ce pas ?
Cependant, la manière dont les sous-traitants de cette gigantesque entreprise ont procédé pour collecter ces données est qualifiée de très malveillante par une enquête du New York Daily News. Cette enquête révèle que les équipes ont ciblé des personnes sans-abri en leur mentant pour obtenir des scans de leurs visages.
Collecte de données : Une méthode discutable
Pour réaliser ces scans faciaux, Google a fait appel à la société de recrutement Randstad. Cette dernière a ensuite pris des sous-traitants qui se sont rendus dans plusieurs villes des États-Unis, équipés de téléphones capables de scanner les visages, proposant des cartes-cadeaux de 5 dollars à ceux qui acceptaient de se prêter à l’exercice.
D’après une source, les superviseurs de Randstad ont donné des instructions pour cibler spécifiquement les personnes noires sans-abri, indiquant que ces dernières ignoraient totalement la nature des opérations en cours.
Discrétion et désinformation
Ce qui est encore plus inquiétant, c’est que les superviseurs ont demandé aux sous-traitants de dissimuler l’objectif des scans faciaux. Les sources ont rapporté qu’ils devaient présenter les scans comme un type de jeu de selfies ou un mini-jeu. Les instructeurs les encourageaient également à accélérer le processus d’accords de consentement et à ignorer toute personne qui semblait poser des questions sur la collecte des données.
Si un individu demandait si le téléphone était en train d’enregistrer une vidéo, les sous-traitants devaient simplement répondre : « Oh, ce n’est pas vraiment le cas. »
Une intention louable mais une mauvaise exécution
La véritable intention derrière cette collecte, qui est de garantir que la technologie de reconnaissance faciale de Google ne soit pas biaisée, est une démarche positive pour le domaine de l’intelligence artificielle, souvent entachée par des technologies racistes et sexistes.
Cependant, si les accusations des sources du Daily News s’avèrent réelles, la multinationale doit impérativement améliorer son processus de sélection des entreprises avec qui elle collabore pour atteindre cet objectif.
Liens utiles :
À lire davantage : Google utilise des tactiques douteuses pour cibler les personnes à la peau « plus foncée » dans son projet de reconnaissance faciale : sources [New York Daily News]
Plus d’informations sur l’IA biaisée : Microsoft annonce un outil pour détecter l’IA biaisée car nous continuons à créer de l’IA biaisée.
FAQ
Quelle est la finalité de cette technologie de déverrouillage facial ?
Cette technologie vise à améliorer la sécurité et l’accès des utilisateurs sur des appareils, en évitant les biais dans le traitement des visages différents.
Quelles sont les implications éthiques de cette étude ?
Les méthodes de collecte de données soulèvent des questions sur le respect de la vie privée et l’exploitation des groupes vulnérables pour des besoins commerciaux.
Quelles mesures Google pourrait-elle prendre ?
Google devrait mettre en place des normes transparentes et éthiques pour le recrutement de sous-traitants afin de garantir une collecte de données respectueuse.
Quelles sont les conséquences potentielles ?
Si des pratiques douteuses persistent, cela pourrait nuire à la réputation de Google et à la confiance du public dans l’utilisation de la technologie de reconnaissance faciale.
Existe-t-il des alternatives éthiques pour la collecte de données ?
Oui, il est possible d’utiliser des méthodes de collecte qui respectent la consentement informé et qui prennent en compte la diversité des participants de manière éthique.
