C’est un mélange cauchemardesque de l’emprise des grandes entreprises technologiques et de l’autoritarisme d’État.
En 2018, la province argentine de Salta a donné son feu vert au développement d’un algorithme par Microsoft, qui prétendait pouvoir identifier les adolescentes de milieu modeste susceptibles de tomber enceintes. Ceci a été révélé par une enquête choquante menée par Wired.
Cet algorithme, qualifié par Microsoft de “projet pionnier en matière d’utilisation des données d’IA”, s’est basé sur des informations démographiques comme l’âge, l’ethnie, le statut de handicap, le pays d’origine, ainsi que les commodités dans l’habitat, telles que la présence d’eau chaude, pour prédire celles qui seraient “prédisposées” à la maternité dans une petite ville argentine.
Ce programme, qu’on a célébré à la télévision nationale par l’ancien gouverneur Juan Manuel Urtubey, a été proposé à la province par Microsoft alors qu’à ce moment-là, le Congrès argentin débattait de la dépénalisation de l’avortement, comme le souligne Wired.
Le programme, connu sous le nom de “Plateforme Technologique pour l’Intervention Sociale”, est particulièrement préoccupant car il dénote le choix d’une entreprise américaine telle que Microsoft d’implémenter une telle initiative dans un pays ayant une longue tradition de surveillance et de contrôle de la population.
La manière dont ce programme a été géré soulève de sérieuses questions de transparence. L’État argentin n’a jamais évalué formellement les conséquences de cet algorithme sur les filles et les femmes.
Pire encore, selon Wired, le dispositif a impliqué l’engagement d'”agents territoriaux” visitant les personnes désignées par l’IA pour évaluer leur situation, prenant des photos d’elles, et notant leurs coordonnées GPS.
Il reste flou ce que les gouvernements provincial et national ont fait des données ainsi recueillies, et s’il y a un lien avec la problématique de l’avortement.
En 2020, l’Argentine a choisi de dépénaliser l’avortement, marquant une étape historique pour le pays sud-américain. Toutefois, l’existence même de ce programme soulève des inquiétudes significatives.
Ce rapport doit être perçu comme un avertissement quant aux dangers potentiels à l’intersection entre la technologie de l’IA américaine et l’autoritarisme. Il nous rappelle qu’actuellement, il y a davantage à craindre des humains qui manient ces algorithmes que des algorithmes eux-mêmes.
EN SAVOIR PLUS : Le cas de l’algorithme intrusif qui a ‘prédit’ les grossesses d’adolescentes [Wired]
À lire également sur les algorithmes prédictifs : Des scientifiques des données affirment avoir développé des algorithmes pour prédire la prochaine tentative de coup d’État
### FAQ
#### Qu’est-ce qu’une plateforme technologique pour l’intervention sociale ?
Une telle plateforme utilise des algorithmes pour analyser des données démographiques afin de cibler des populations spécifiques pour des programmes d’intervention.
#### Pourquoi la dépénalisation de l’avortement est-elle importante en Argentine ?
C’est une avancée pour les droits reproductifs, offrant aux femmes plus de choix concernant leur corps et leur santé.
#### Comment sont collectées les données par les algorithmes ?
Les algorithmes peuvent collecter des informations à partir de diverses sources, y compris des données démographiques et des observations directes des agents.
#### Quels impacts un tel programme peut-il avoir sur les communautés vulnérables ?
Ces programmes peuvent renforcer des stéréotypes négatifs et exacerber les inégalités sociales en ciblant des groupes déjà marginalisés.
#### Quels sont les risques liés à l’utilisation des algorithmes prédictifs ?
Les algorithmes peuvent avoir des biais intégrés, entraînant des préjugés dans les décisions qui les concernent, ce qui peut mener à des violations de droits.
