Axon présente une technologie préoccupante
La société Axon, connue pour ses dispositifs de Taser et ses relations avec les forces de l’ordre, a récemment lancé un produit innovant nommé “Draft One.” Cette solution repose sur une intelligence artificielle capable de générer des rapports policiers à partir d’enregistrements audio de caméras corporelles.
Les implications éthiques de l’utilisation de l’IA
Cependant, cette nouvelle technologie soulève de nombreuses inquiétudes. Comme le rapporte Forbes, il y a des craintes quant aux dérives possibles de ce type de technologie qui pourrait accentuer des problèmes institutionnels tels que les préjugés raciaux au sein des services de police. En plus, les IA ont souvent tendance à “halluciner” des faits, ce qui pourrait entraîner des accusations erronées et un chaos dans le système judiciaire.
Un expert en surveillance de la Electronic Frontier Foundation, Dave Maass, exprime sa préoccupation : les policiers, qui ne sont généralement pas des spécialistes de l’IA, pourraient utiliser ces systèmes sans comprendre les enjeux ni les défauts possibles. Ainsi, des formulations issues de ces rapports pourraient influencer la vie de millions de personnes impliquées dans le système judiciaire.
Les promesses d’Axon
Axon défend son produit en affirmant qu’il permettrait aux agents de gagner du temps. Selon le PDG de la société, Rick Smith, si un policier passe une grande partie de sa journée à rédiger des rapports, utiliser cette technologie pourrait libérer jusqu’à 25 % de son temps pour d’autres tâches policières.
Ceci dit, étant donné les antécédents des systèmes d’OpenAI à commettre des erreurs et à reproduire des biais raciaux, une grande partie de la communauté reste sceptique.
Contrôles de sécurité et relations publiques
Axon affirme avoir adapté son modèle pour réduire au minimum les erreurs. Noah Spitzer-Williams, chef de produit, explique qu’ils ont intentionnellement limité la créativité de l’IA pour éviter les erreurs graves. Toutefois, même avec ces ajustements, la question demeure : peut-on vraiment faire confiance à un outil potentiellement sujet à des erreurs lorsque les conséquences peuvent être si graves pour les individus concernés ?
Concernant les biais raciaux, l’entreprise soutient que des tests ont montré qu’aucune différence statistiquement significative n’avait été observée entre les races pendant les essais. De plus, il est prévu que les rapports générés soient vérifiés par des agents humains.
Réactions de la communauté
Cette initiative a suscité des réactions négatives sur les réseaux sociaux. De nombreux utilisateurs estiment que l’usage de cette technologie pourrait gravement nuire à la vie des individus, notamment aux minorités. Des commentaires soulignent le caractère douteux des rapports générés par une IA, considérant que des erreurs dans ces documents officiels sont inacceptables.
En outre, la réputation d’Axon n’est pas sans taches ; en 2022, plusieurs membres de son conseil éthique ont démissionné après que l’annonce de drones armés équipés de Tasers pour patrouiller dans les écoles ait été faite, pour ensuite être annulée. Des anciens employés ont également évoqué de pratiques cuirrant de l’entreprise, comme la pression exercée pour se faire tatouer des logos de la société, illustrant une culture d’entreprise peu rassurante.
Conclusion
Au final, de nombreuses raisons incitent à douter de cette initiative d’Axon. Avec les enjeux si élevés en jeu, faire confiance à une technologie non éprouvée et peu fiable soulève de graves interrogations, surtout dans un secteur aussi éthiquement délicat que celui de la technologie policière.
FAQ
Que fait exactement “Draft One” ?
“Draft One” est un outil d’IA capable de rédiger des rapports policiers à partir d’enregistrements audio, dans le but de réduire le temps que les policiers passent à rédiger des documents.
Quels sont les risques associés à l’utilisation de cette IA ?
Les risques incluent des biais raciaux possibles dans les rapports, des erreurs factuelles dues à la tendance des IA à halluciner, et la dépendance à une technologie non éprouvée pour des décisions judiciaires.
Comment Axon gère-t-il les préoccupations liées à l’IA ?
Axon prétend avoir limité la créativité de son modèle d’IA afin d’éviter les erreurs, et affirme que les rapports générés seront vérifiés par des agents humains.
Y a-t-il eu des réactions négatives concernant ce produit ?
Oui, de nombreux utilisateurs sur les réseaux sociaux ont exprimé leur inquiétude, soulignant que cette technologie pourrait gravement affecter la vie des individus, notamment ceux issus de minorités.
Quelle est la réputation actuelle d’Axon ?
La réputation d’Axon est controversée, surtout après des incidents comme la démission de membres du conseil éthique en 2022 suite à des annonces jugées inquiétantes concernant des drones armés.
