Une dystopie technologique en gestation
Bien que nous nous dirigions peut-être vers une dystopie technologique violente, celle-ci n’est pas encore une réalité.
L’affaire de meurtre à Cleveland
Une enquête récente menée par le Cleveland Plain Dealer a mis en lumière l’erreur d’une enquête policière à Cleveland, dans l’Ohio, qui a échoué dans une affaire de meurtre en se basant sur des éléments fournis par l’intelligence artificielle. En février 2024, les détectives étaient perplexes face au meurtre de Blake Story, un homme de 33 ans originaire de Cleveland. Ne trouvant pas d’indices, ils ont décidé d’exploiter les images de surveillance d’un suspect et de les soumettre au Northeast Ohio Regional Fusion Center, un centre de commandement dédié à la collecte de données pour plusieurs agences, allant du niveau local au fédéral.
Dépendance à l’IA dans les enquêtes
Le Centre de fusion utilise des produits d’IA avancés pour faciliter le travail de ses agents. L’un de ces outils est Clearview, une plateforme controversée de reconnaissance faciale basée à New York, actuellement poursuivie en justice à la suite des révélations du New York Times concernant ses pratiques discutables. À la suite d’une vérification par Clearview, les détectives ont identifié un homme, Qeyeon Tolbert. Les forces de l’ordre n’ont pas tardé à obtenir un mandat d’entrée sans préavis pour fouiller le domicile de la petite amie de Tolbert, où elles ont prétendument rassemblé des preuves supplémentaires qui ont conduit à son arrestation et à son procès pour meurtre.
Chaîne de logique défaillante
La contestation de cette enquête réside dans la façon dont les policiers ont identifié Tolbert. Au lieu de s’appuyer sur des indices tangibles comme des résidus de poudre, des analyses ADN ou des témoignages oculaires, ils ont simplement utilisé Clearview pour comparer les images vidéo de la scène du crime à celles d’un homme au hasard qui correspondait à la description d’un suspect.
Un juge a par la suite annulé les preuves liées à l’IA ainsi que celles obtenues grâce au mandat incertain, bien que les procureurs de la région fassent appel de cette décision.
Clearview et ses implications
Clearview semble vouloir se distancier de cet incident. Leur site Web précise que “Clearview ne garantit pas l’exactitude de son logiciel de recherche et d’identification”. Pourtant, cette mention n’est pas mise en avant, tandis que d’autres parties vantent l’existence de “plus de 50 milliards d’images dans notre base de données de la police, la plus vaste au monde”, et une revendication de “99 % de précision pour tous les groupes démographiques”.
Bien que le logiciel de Clearview ne soit pas explicitement conçu pour poursuivre les citoyens américains, il se présente clairement comme un outil au service des forces de l’ordre. L’entreprise mentionne même sur sa page d’accueil qu’un “avocat commis d’office a utilisé la reconnaissance faciale pour localiser un témoin clé dans une affaire de meurtre par véhicule“.
Répercussions des erreurs d’IA
Une enquête menée par le Washington Post a révélé qu’au moins huit Américains ont été arrêtés à tort uniquement en fonction des résultats positifs des systèmes de reconnaissance faciale. Dans tous les cas documentés, ces personnes étaient de race noire. Ce chiffre est en constante augmentation alors que certaines forces de police, conscientes ou non des problèmes de fiabilité de l’IA, prennent ces technologies pour argent comptant, privilégiant des arrestations rapides aux enquêtes approfondies. Même lorsque les policiers se montrent prudents et effectuent des vérifications supplémentaires, cela peut aggraver l’incertitude des résultats.
Les entreprises technologiques cherchent désespérément à justifier leurs coûts exorbitants en cas d’échec, et la charge de la preuve devrait incomber à la fois à la justice, aux forces de l’ordre et aux sociétés technologiques, plutôt que d’être noyée dans les métadonnées.
FAQ
Qu’est-ce que Clearview et quelles sont ses fonctionnalités ?
Clearview est une plateforme de reconnaissance faciale qui collecte des images sur le web pour aider les forces de l’ordre à identifier des suspects. Elle a été au cœur de plusieurs controverses en raison de ses méthodes de collecte de données.
Quels types de garanties existent pour protéger les citoyens contre des erreurs d’identification par l’IA ?
Actuellement, il n’existe pas de cadre juridique solide garantissant la protection contre les erreurs dues à la reconnaissance faciale. Il est essentiel de renforcer la réglementation sur l’utilisation de ces technologies pour éviter des abus.
Quelles sont les conséquences des fausses identifications liées à la reconnaissance faciale ?
Les fausses identifications peuvent mener à des arrestations injustes, à des dommages à la réputation et à des répercussions juridiques significatives pour les victimes. La confiance du public dans le système judiciaire peut également être gravement compromise.
Comment l’IA influence-t-elle la manière dont les enquêtes policières sont menées ?
L’utilisation de l’IA a changé la dynamique des enquêtes en permettant un accès rapide à des bases de données massives, mais cela peut également mener à des conclusions hâtives et à des erreurs d’appréciation.
Pourquoi est-il essentiel de s’interroger sur l’utilisation de l’IA par les forces de l’ordre ?
La dépendance croissante à l’IA pour les enquêtes soulève des questions éthiques et juridiques, notamment en matière de biais racial et de droits fondamentaux, ce qui nécessite une vigilance permanente et des discussions pour une utilisation responsable.
