<h2 class="wp-block-heading" id="h-sure-guy">Rassurez-vous, ça va</h2>
<p class="pw-incontent-excluded article-paragraph skip">Une IA capable de prédire des crimes a été développée et est déjà testée dans plusieurs villes américaines. Rassurez-vous, selon son créateur principal, Ishanu Chattopadhyay de l'Université de Chicago, cela ne devrait pas être détourné par les forces de police locales.</p>
<p class="article-paragraph skip">Lors d'une récente interview avec <em>BBC Science Focus</em>, Chattopadhyay a expliqué que selon une étude publiée dans la revue <em>Human Behavior</em>, cette technologie pourrait prédire avec une précision de 80 à 90 % le **lieu** et le **moment** où un crime est susceptible de se produire. Toutefois, la question la plus cruciale n’est pas tant la validité des prédictions, mais plutôt comment insérer une IA dans le cadre policier sans qu’elle soit utilisée de manière abusive. Chattopadhyay est convaincu que son système peut y parvenir, bien que l’historique de l’IA dans la police le contredise souvent.</p>
<p class="article-paragraph skip">“Les gens craignent que cet outil soit utilisé pour incarcérer des individus avant même qu’ils commettent un délit”, a déclaré Chattopadhyay à <em>BBC</em>. “Cela ne se produira pas car notre technologie ne le permet pas.”</p>
<h2 class="wp-block-heading" id="h-bad-record">Un passé problématique</h2>
<p class="article-paragraph skip">L'utilisation de l'IA dans les forces de l'ordre n'est pas une nouveauté, tout comme les polémiques qui l'entourent. Des logiciels semblables ont déjà été associés à des cas d'emprisonnements injustifiés ou même à des incidents tragiques, comme la mort d'un adolescent non armé. De façon générale, l'IA est reconnue pour être instable, pleine de **préjugés raciaux** et d'autres formes de discrimination. De plus, elle est très difficile à comprendre, même par ceux qui l'ont conçue.</p>
<p class="article-paragraph skip">Chattopadhyay, qui espère que son IA sera un moyen de prévenir la criminalité par le biais de mesures sociales plutôt que par une répression excessive, a reconnu ces préoccupations, notamment les problèmes de racisme déjà bien documentés liés à l’IA. Il est convaincu que d'autres systèmes d'IA sont trop simples, s'appuyant trop sur des éléments comme les antécédents judiciaires et des caractéristiques individuelles. En revanche, son système se base uniquement sur des données d'événements, ce qu'il considère comme une méthode pour “réduire le biais autant que possible.”</p>
<p class="article-paragraph skip">“Il prédit simplement un événement à un endroit précis,” a-t-il ajouté. “Il ne dit pas qui pourrait le commettre ou la dynamique de l’événement. Ce n’est pas comparable à ce que l’on voit dans le film ‘Minority Report.’”</p>
<p class="article-paragraph skip">Cependant, bien que l'optimisme soit souvent de mise, les précédents de mauvais traitements systémiques associés à des logiciels policiers expérimentaux rendent cette perspective plutôt utopique, surtout face aux abus déjà présents au sein des forces de l'ordre américaines, même sans l’intervention de l’IA.</p>
<p class="article-paragraph skip"><strong>LIRE AUSSI : </strong><a href="https://www.sciencefocus.com/news/algorithm-predict-future-crimes-90-accuracy-heres-why-creator-thinks-tech-wont-be-abused/" rel="noreferrer" target="_blank">Un algorithme peut prédire des crimes futurs avec une précision de 90 %. Voici pourquoi son créateur pense que cette technologie ne sera pas détournée.</a> [<em>BBC Science Focus</em>]</p>
<p class="article-paragraph skip"><strong>À propos des projets d'IA inutiles :</strong> <em>Une startup maudite utilise l'IA pour faire disparaître l'accent des travailleurs des centres d’appels.</em></p>
FAQ
Quelle est la précision de cette IA dans la prédiction de crimes ?
Cette IA pourrait atteindre une précision de 80 à 90 % pour prédire où et quand des crimes pourraient se produire.
Quelles sont les préoccupations éthiques liées à l’utilisation de l’IA dans la police ?
Les craintes principales tournent autour du risque de discrimination, de l’incarcération préventive, et du fait que les systèmes d’IA pourraient amplifier les préjugés existants.
Qui est Ishanu Chattopadhyay ?
Ishanu Chattopadhyay est un professeur à l’Université de Chicago, reconnu pour sa recherche sur l’IA et pour être le créateur principal de ce système de prédiction criminelle.
L’IA a-t-elle déjà causé des erreurs dans le passé ?
Oui, des logiciels d’IA similaires ont été liés à des cas d’emprisonnements injustes et de tragédies, pointant vers un besoin d’une utilisation prudente de cette technologie.
Quelles solutions Chattopadhyay propose-t-il pour minimiser les biais ?
Il affirme que son modèle se base uniquement sur des données d’événements, permettant ainsi de réduire les biais liés aux antécédents judiciaires et aux caractéristiques individuelles.
