Inscrivez-vous pour découvrir l’avenir, dès maintenant.
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Des innovations incontournables à la pointe de la science et de la technologie.</p>
</div>
</div>
</div>
</section>
## Des événements prévisibles
Le gouvernement britannique a investi des millions de dollars dans un outil censé prédire la criminalité violente grâce à l’intelligence artificielle. Cependant, il semble que ce système présente un défaut majeur : il est en réalité inutilisable. En plus de cela, il comporte de nombreux problèmes éthiques, comme le souligne un article de Wired.
Les forces de l’ordre ont déjà abandonné le développement de cet outil, connu sous le nom de « Violence la plus sérieuse » (MSV), qui faisait partie du projet National Data Analytics Solution (NDAS) au Royaume-Uni. Par chance, il n’a jamais été mis en œuvre, mais plusieurs questions demeurent quant à ses principes de fonctionnement.
Cet outil fonctionnait en attribuant des scores aux individus en fonction de leur probabilité de commettre un acte violent (avec une arme à feu ou un couteau) dans les deux années suivantes.
Sommaire
ToggleProblèmes majeurs
Heureusement, ce système n’a jamais été opérationnel. Les documents officiels obtenus par Wired révèlent que le projet était truffé de défauts. Un rapport de mars mentionne qu’une erreur de codage a été trouvée dans la définition des données d’entraînement, rendant la problématique du MSV complètement non viable.
Il a été précisé qu’il était impossible avec les données à disposition d’identifier un moment d’intervention avant qu’une personne ne commette son premier acte de violence avec une arme, et ce, avec un minimum de précision.
Au lieu des taux de prévisibilité supérieurs à 70 % observés lors des tests initiaux, le système n’était capable de prédire la violence armée que dans moins de 20 % des cas.
Les biais persistants
Les forces de police ont pris la décision judicieuse d’arrêter le développement de cet outil. Pourtant, des experts interrogés par Wired soulignent qu même si un système atteignait une précision de 100 %, de nombreux biais subsisteraient, en particulier concernant l’âge et l’ethnicité des individus.
À lire aussi : Un outil d’IA britannique pour prévoir la criminalité violente est trop défectueux pour être utilisé (Wired)
Plus sur l’IA : Les scientifiques utilisent un « observateur d’oiseaux IA » pour résoudre le mystère d’un massacre d’oiseaux dans une ferme solaire.
FAQ
Pourquoi cet outil a-t-il été abandonné ?
Le système a été abandonné en raison de ses nombreuses défaillances techniques et de son incapacité à prédire efficacement la criminalité.
Quels types de données étaient utilisés pour entraîner le système ?
Deux bases de données provenant de différents départements de police au Royaume-Uni, comprenant des dossiers criminels et de détention, ont été utilisées pour former l’outil.
Quels sont les problèmes éthiques liés à ce type d’outil ?
Les problèmes éthiques incluent le risque de biais en fonction de l’âge et de l’ethnicité, ainsi que des implications sur la vie privée des individus ciblés par ces prédictions.
Y a-t-il d’autres projets similaires en cours ?
Il existe plusieurs initiatives utilisant l’IA pour la prévention de la criminalité, mais le développement doit se faire avec une attention particulière aux biais et à l’éthique.
Que peut-on attendre à l’avenir de l’IA dans le domaine de la sécurité ?
L’IA pourrait jouer un rôle important, mais les défis éthiques et techniques doivent être abordés pour garantir des résultats justes et efficaces.
