Intelligence Artificielle

Flock aurait utilisé des travailleurs philippins pour entraîner une IA de surveillance américaine

Flock aurait utilisé des travailleurs philippins pour entraîner une IA de surveillance américaine

Ce que révèle la fuite

Une récente fuite de données a dévoilé l’envers du décor de Flock Safety, entreprise de surveillance très présente auprès des forces de l’ordre américaines. Derrière ses outils d’IA, la société s’appuie discrètement sur des travailleurs à la tâche aux Philippines pour passer en revue, décrire et classer des images et des sons captés dans des milliers de quartiers américains. Cette découverte, signalée en premier par le média 404 Media, relance une question centrale : qui a réellement accès à des données qui suivent les déplacements quotidiens de millions d’habitants, souvent sans mandat ?

Une chaîne d’annotation industrielle

Des captures d’écran d’un tableau de bord interne exposé montrent une cadence élevée: en l’espace de deux jours seulement, des milliers d’annotations sont produites. Les intervenants ne se contentent pas d’identifier des plaques d’immatriculation. Ils étiquettent aussi des marques de véhicules, leurs couleurs, leurs catégories, et décrivent des éléments vestimentaires ou la présence de personnes. Plusieurs indices illustrent l’origine américaine des images: plaques visibles, panneaux routiers caractéristiques, publicités locales. L’objectif est clair : nourrir des modèles d’IA avec des données finement structurées sur la vie quotidienne dans l’espace public.

A lire :  Un lanceur d’alerte poursuit Figure AI pour manquements à la sécurité, accusant ses robots de pouvoir provoquer des fractures crâniennes.

L’audio, une dimension encore plus sensible

Les documents internes insistent sur l’analyse sonore. Les travailleurs sont invités à écouter l’audio jusqu’au bout puis à choisir des étiquettes comme « accident de voiture », « coup de feu » ou « conduite dangereuse ». Flock met par ailleurs en avant une capacité de détection de cris, ce qui place ces intervenants à l’étranger en première ligne d’interprétation d’événements potentiellement critiques captés dans des rues américaines. La frontière entre assistance technique et surveillance humaine rapprochée devient floue, d’autant que l’audio peut révéler des indices personnels difficiles à anonymiser.

Des sous-traitants à l’étranger, une surface d’attaque accrue

Le recours à des prestataires via des plateformes de gig work (comme Upwork) est courant dans l’IA pour réduire les coûts. Mais ici, la nature des données change la donne : il ne s’agit pas de photos génériques, mais de séquences de surveillance liées à des trajets, des matricules, des habitudes de vie. Multiplier les intermédiaires et délocaliser l’annotation élargit la surface d’attaque, complique la traçabilité des accès et rend plus difficile l’audit précis de qui a vu quoi, quand et pourquoi.

Vie privée, légalité et confiance publique

  • Les collectivités qui installent ces systèmes n’anticipent pas toujours que des contractants étrangers puissent avoir accès à des segments des images et sons locaux.
  • La proportionnalité et la nécessité de cette collecte sont en débat, surtout lorsque des personnes non suspectes sont captées et classées sans qu’un mandat ne soit en jeu.
  • Les erreurs d’annotation (par exemple confondre un bruit avec un coup de feu ou mal identifier un véhicule) peuvent avoir des conséquences sur des enquêtes, des interventions policières ou des litiges.
A lire :  L'Industrie de l'IA Face à un Enjeu Majeur de "Dettes à Rembourser"

Des questions sans réponse claire

  • Quels contrôles d’accès et quelles journaux d’audit encadrent la consultation des données par ces sous-traitants ?
  • Où et combien de temps ces données sont-elles stockées ? Quel est le niveau de chiffrement et de segmentation ?
  • Quelles garanties contractuelles assurent la confidentialité, la minimisation et la suppression rapide ?
  • Comment les collectivités peuvent-elles vérifier que leurs exigences de conformité sont respectées au quotidien ?

Ce que cela dit du modèle d’IA actuel

La performance de nombreux systèmes d’IA tient à une main-d’œuvre globale et peu visible, chargée d’étiqueter des volumes massifs de données. Dans le contexte de la surveillance urbaine, cette dépendance soulève un dilemme : la promesse d’outils plus rapides et précis se heurte au besoin de garanties fortes sur la sûreté, la vie privée et la gouvernance des données. Une transparence accrue, des clauses contractuelles strictes et des audits indépendants deviennent indispensables pour préserver la confiance du public.

Pistes immédiates pour les collectivités

  • Exiger un cahier des charges précisant la localisation du traitement, les sous-traitants autorisés et les mesures de sécurité.
  • Mettre en place des audits réguliers des accès, avec journaux horodatés et traçabilité des actions.
  • Imposer la minimisation (brouillage de visages, redaction des plaques non pertinentes), des durées de rétention courtes et une suppression vérifiable.
  • Privilégier, quand c’est possible, un traitement en périphérie (edge) et un chiffrement de bout en bout pour limiter l’exposition.

FAQ

Comment une ville peut-elle vérifier où et comment ses données sont traitées ?

  • Demander des annexes de traitement des données (DPA), des cartographies de flux, des certifications de sécurité, et l’activation de journaux d’accès consultables par un auditeur tiers.
  • Inclure des pénalités contractuelles en cas d’accès non autorisé ou de sous-traitance non déclarée.
A lire :  Le Pape de l'IA Avertit des Pertes d'Emplois Imminentes

Peut-on imposer un traitement uniquement sur le sol américain ?

Oui, via des clauses de résidence des données et l’interdiction de sous-traitants hors US. Cela peut augmenter les coûts, mais réduit le risque et facilite l’audit. En complément : anonymisation avancée et traitement local avant tout envoi vers le cloud.

Que peuvent faire les habitants pour obtenir de la transparence ?

  • Utiliser les lois d’accès aux documents publics pour demander contrats, politiques de rétention et rapports d’audit.
  • Intervenir en conseil municipal, demander des évaluations d’impact et la publication d’une politique de confidentialité lisible.

Quelles bonnes pratiques techniques limitent le risque ?

  • Minimisation des données, chiffrement fort au repos et en transit, contrôles d’accès par rôle, principe du moindre privilège, suppression automatique.
  • Tests d’intrusion réguliers et revues des jeux de données d’entraînement pour éviter la ré-identification.

Comment savoir si ma commune utilise Flock ou un système similaire ?

  • Consulter les délibérations locales, les budgets et appels d’offres.
  • Chercher des panneaux d’information, interroger le service de police ou le DPO/RSSI de la ville, et surveiller les rapports d’activité officiels.