Une IA sans plaisir pour prédire la prochaine génération de drogues
Des chercheurs canadiens ont récemment développé une intelligence artificielle (IA) qui prédit l’émergence de drogues de synthèse avant même leur création. Leur objectif ? Aider les forces de l’ordre à lutter contre ces substances.
Une technologie controversée
Cette semaine, l’Université de la Colombie-Britannique (UBC) a annoncé que ses chercheurs avaient nourri un algorithme d’apprentissage automatique avec une base de données de substances psychoactives connues. Le but était de pouvoir prédire l’apparition de nouvelles drogues de designer avant que les chimistes et revendeurs n’aient la moindre chance de les fabriquer.
Un parallèle risqué
L’UBC se vante même de créer une sorte de « Minority Report » contemporain dédié aux drogues de synthèse, sans apparemment comprendre que le film était un récit d’avertissement. Le communiqué associé à cette recherche précise clairement qu’ils souhaitent aider les autorités dans leur lutte contre les drogues, rappelant ainsi les échecs notables de cette guerre.
Des déclarations préoccupantes
Dans le communiqué, David Wishart, un des auteurs de l’étude, a suggéré que la capacité de prédire ces drogues pourrait réduire la criminalité, à l’instar de ce qui se passait dans le film de 2002. Il affirme que leur logiciel offre un avantage aux agences de sécurité publiques face aux chimistes clandestins, leur permettant de savoir en avance quoi rechercher.
Un potentiel inquiétant
Bien que cette approche d’apprentissage automatique puisse sembler prometteuse, elle présente des risques. De nombreuses technologies similaires se sont révélées problématiques, et pourtant, l’université a déjà accordé un accès à cette technologie à plusieurs agences de sécurité à l’échelle mondiale, dont certaines utilisent déjà ces outils.
Un échec historique
Il est important de rappeler que l’objectif initial de la guerre contre les drogues — réduire les dommages liés à la dépendance et traduire en justice ceux qui commettent des crimes liés à celle-ci — est largement considéré comme un échec. Si cette nouvelle initiative s’inspire d’un film qui popularise le concept de « pré-crime », alors il y a de quoi s’inquiéter.
Note de mise à jour
Après la publication de cet article, les chercheurs ont précisé que plusieurs agences de sécurité ont accès à cette technologie, mais qu’une seule a été confirmée comme l’utilisant effectivement.
FAQ
Quelles sont les implications éthiques de cette IA ?
L’utilisation d’une IA pour prédire des comportements criminels soulève des questions éthiques, notamment sur la vie privée et le profilage. Cela pourrait mener à des atteintes aux droits civils.
Les chercheurs ont-ils testé cette technologie dans des situations réelles ?
Il n’a pas été précisé si des tests sur le terrain ont été réalisés. Cela reste une préoccupation majeure quant à l’efficacité et à la sécurité de ces algorithmes.
Y a-t-il d’autres exemples d’IA utilisée dans la lutte contre la criminalité ?
Oui, des initiatives similaires existent dans divers domaines, comme la prédiction de la criminalité urbaine ou l’analyse de la cybercriminalité.
Quels sont les défis à relever avec cette technologie ?
Les défis incluent la gestion de données biaisées, la responsabilité en cas d’erreur et l’acceptation par le public et les forces de l’ordre.
Comment cette IA peut-elle affecter les politiques de santé publique ?
Si utilisée efficacement, elle pourrait permettre une meilleure allocation des ressources en santé publique, mais elle pourrait également mener à des approches punitives plutôt que préventives.
