Intelligence Artificielle

Tests d’une IA Détective par le Service de Police sur des Affaires Réelles

Tests d'une IA Détective par le Service de Police sur des Affaires Réelles

Les Avertissements sur l’Utilisation de l’IA dans la Police

Une police britannique expérimente actuellement un système basé sur l’IA qui pourrait révolutionner l’analyse des affaires non résolues. Ce programme, connu sous le nom de Soze, a la capacité de convertir des décennies de travail policier en quelques heures seulement, comme l’indique un rapport de Sky News.

Efficacité et Précautions

Cependant, des doutes subsistent concernant son taux de précision. En effet, certains modèles d’IA sont connus pour produire des résultats souvent erronés ou pour halluciner des informations fictives. L’Avon and Somerset Police Department, qui s’occupe d’une partie du Sud-Ouest de l’Angleterre, teste Soze en analysant divers supports tels que des emails, des réseaux sociaux, des vidéos et des documents financiers.

D’après les premières évaluations, l’IA a réussi à passer au crible les éléments de 27 cas jugés “complexes” en seulement 30 heures. C’est l’équivalent de 81 ans de travail humain ! Ces résultats attirent l’attention, surtout pour une institution policière souvent confrontée à des limites budgétaires et un personnel insuffisant.

La Vision Optimiste de la Technologie

Gavin Stephens, président du National Police Chiefs’ Council au Royaume-Uni, a exprimé son enthousiasme : « Il y a des cas froids qui semblent impossibles à résoudre, mais ce système peut nous aider à en faire une évaluation plus rapide et efficace. »

Autres Projets d’IA dans le Domaine Policiers

Stephens a également mentionné un autre projet, visant à créer une base de données des couteaux et épées fréquemment utilisés dans des attaques au Royaume-Uni. Malgré son optimisme sur l’utilisation imminente de ces outils d’IA, il est crucial de vérifier leur bon fonctionnement avant de les déployer à grande échelle. En effet, l’IA, en particulier dans le domaine policier, comporte un risque d’erreurs notoire et peut entraîner des faux positifs.

Les Risques Inhérents aux Systèmes d’IA

Un modèle utilisé pour évaluer les chances d’un suspect de récidiver s’est avéré non seulement inexact, mais également biaisé, en particulier à l’encontre des personnes noires. Cela soulève des questions éthiques, évoquant le fameux récit de Philip K. Dick, “Minority Report”. De plus, les systèmes de reconnaissance faciale peuvent causer des arrestations injustifiées, avec des mineurs souvent accusés à tort.

Ces problèmes sont si alarmants que la Commission américaine des droits civiques a récemment critiqué l’utilisation de l’intelligence artificielle dans les enquêtes policières.

Une Illusion de Précision

Il existe une idée préconçue selon laquelle ces technologies, étant des machines, seraient infaillibles. Cependant, elles reposent sur des données collectées par des humains susceptibles d’être biaisés. Ces biais sont donc intégrés dès le départ, compromettant ainsi la fiabilité des analyses.

En résumé, l’introduction de l’IA dans le domaine policier comporte des avantages potentiels, mais il est essentiel de l’utiliser avec prudence et discernement.

FAQ

Quelle est l’importance de l’IA dans les enquêtes criminelles ?

L’IA permet de traiter rapidement une grande quantité d’informations, facilitant ainsi la résolution d’affaires complexes et historiques.

Quelles sont les principales préoccupations relatives à l’usage de l’IA par la police ?

Les inexactitudes des données, les biais raciaux et les risques d’arrestations injustifiées sont parmi les plus grandes inquiétudes.

Quels types de données sont analysés par le système Soze ?

Soze analyse des emails, des réseaux sociaux, des documents financiers et divers autres types de preuves.

Quelles sont les implications éthiques de l’utilisation de l’IA dans la police ?

L’utilisation de l’IA dans les enquêtes peut exacerber les inégalités et injustices si les modèles ne sont pas correctement vérifiés et validés.

Existe-t-il des exemples d’erreurs de l’IA dans le domaine policier ?

Oui, des modèles ont été critiqués pour avoir produit des évaluations biaisées sur la probabilité de récidive d’un suspect, illustrant le potentiel d’erreurs graves.

Quitter la version mobile