Intelligence Artificielle

L’Ascension Silencieuse de l’Opinion Publique Synthétique dans le Gouvernement

L'Ascension Silencieuse de l'Opinion Publique Synthétique dans le Gouvernement

Les gouvernements et les institutions publiques commencent à s’appuyer de plus en plus sur l’intelligence artificielle (IA) pour anticiper les réactions des communautés face à des décisions politiques. Ces systèmes d’IA prennent une place importante, modelant des scénarios depuis la réaction des « électeurs ruraux » à la législation sur le climat jusqu’à la prédiction des réactions des quartiers face aux réformes de zonage. Mais une question centrale émerge : ces outils représentent-ils vraiment l’opinion publique ?

Une question complexe

Selon un article du Burnes Center for Social Change, le principal défi n’est pas de savoir si l’IA peut fournir des réponses plausibles, mais si elle peut réellement refléter la diversité des opinions humaines. Une préoccupation majeure soulève cette interrogation : « Comment savoir si un modèle représente fidèlement une population ou s’il ne fait qu’exprimer un stéréotype convenu ? »

Un cadre novateur

Pour aborder cette problématique, le Collective Intelligence Project (CIP) développe une méthodologie appelée le Digital Twin Evaluation Framework (DTEF). Sous la direction du chercheur Evan Hadfield, ce projet s’inspire du concept de « jumeaux numériques » utilisé en ingénierie, où des répliques virtuelles modélisent des systèmes physiques. Dans ce contexte, cela renvoie à des simulations d’attitudes publiques, parfois désignées comme « échantillons en silicone ».

Au lieu de publier un document technique unique, le CIP choisit de partager son cadre via une série de publications visant à expliquer comment évaluer ces systèmes. L’objectif n’est pas de créer de meilleurs simulateurs d’opinion, mais plutôt de tester la capacité des modèles d’IA à refléter le spectre des opinions au sein d’un groupe, y compris celles des minorités et des dissidents.

A lire :  Un homme arrêté pour avoir détourné 60 millions de dollars d'un startup d'IA vers un style de vie luxueux

Au cœur du DTEF, le changement réside dans la manière de poser la question : plutôt que de demander si un modèle produit une réponse moyenne, il s’agit d’évaluer s’il parvient à capturer l’ensemble des opinions d’un groupe démographique.

Comment fonctionne l’évaluation

Le cadre repose sur le dataset Global Dialogues du CIP, qui regroupe des enquêtes et des discussions délibératives sur les attitudes publiques envers l’IA. Lors d’une évaluation typique, un groupe réel de personnes répond à une question hypothétique sur une politique. Par la suite, le modèle d’IA reçoit des informations démographiques sur ce groupe ainsi que des exemples de leurs réponses à des questions antérieures.

Le modèle doit prédire la réponse du groupe à la nouvelle question, non pas sous forme d’une unique réponse, mais en termes de distribution d’opinions. Cette prévision est ensuite comparée avec la distribution réelle des réponses humaines.

Le DTEF teste ainsi la capacité d’un modèle à refléter les vraies tendances d’opinion, plutôt que de s’appuyer sur des postulats appris.

Les scores de performance qui en résultent visent à indiquer les points forts et faibles du modèle, ainsi que les populations qu’il peine à représenter. Le CIP illustre que ces informations pourraient aider les décideurs, développeurs et organisations civiques à déterminer quand les données synthétiques sont fiables et quand elles risquent de conduire en erreur.

Cependant, il est à noter que le cadre ne s’interroge pas sur l’utilisation des données synthétiques dans la prise de décision, mais se concentre sur l’exactitude de leur représentation des populations réelles.

Questions en suspens

Le développement du DTEF met en lumière des questions de gouvernance qui dépassent la simple précision technique. L’une des plus pressantes concerne l’absence de normes partagées sur ce qui constitue une représentation suffisante. Les institutions évaluent souvent les systèmes d’IA selon des métriques techniques, mais rarement en se demandant si leurs résultats correspondent aux vrais modèles d’opinion au sein de divers groupes.

Bien que le DTEF rende ces lacunes plus visibles, il ne définit pas quand les opinions synthétiques passent d’un outil expérimental à des éléments légitimes pour des décisions concrètes.

A lire :  OpenAI Récupère le ‘Jester’ : Le Hacker de la Silicon Valley fait Sensation

Une autre question se pose également : quand l’utilisation d’entrées synthétiques est-elle appropriée ? L’opinion publique générée par l’IA est souvent perçue comme un moyen d’accélérer le processus d’engagement. L’intérêt est clair : c’est rapide, peu coûteux et répétable. Pourtant, sans limites claires, ces systèmes risquent d’éclipser la participation authentique.

Si les évaluations montrent des performances inégales au sein des populations, les décideurs se trouvent dans l’incertitude. Quand un modèle devrait-il compléter l’engagement ? Quelles vérifications doivent être effectuées avant leur utilisation ? Et quelles sont les situations où les opinions synthétiques ne devraient jamais se substituer à celles des individus réels ?

« Les opinions synthétiques ne vont pas échouer bruyamment. Elles échoueront avec confiance et persuasion. »

La légitimité au-delà de la précision

Même un modèle très précis soulève des questions plus profondes sur la légitimité démocratique. Les échantillons en silicone sont conçus pour prédire des comportements, sans qu’ils garantissent l’équité, l’inclusion ou la responsabilité. Dans de nombreux contextes politiques, la légitimité ne découle pas d’une représentation statistique, mais de la prise en compte de ceux qui sont le plus impactés par les décisions.

La représentativité est ainsi une dimension parmi d’autres en matière d’apports démocratiques, et souvent, elle n’est pas la plus cruciale.

Importance pour la gouvernance

Les jumeaux numériques d’opinion publique sont encore en phase d’émergence, mais ils annoncent une nouvelle infrastructure représentative. Lorsque les agences les utilisent pour tester des politiques, allouer des ressources ou anticiper des réactions, ces systèmes risquent de devenir, sans le vouloir, des intermédiaires représentatifs du public.

« Le risque réside dans une dérive : les systèmes d’IA deviennent les décideurs par défaut parce qu’ils sont pratiques, non parce qu’ils sont légitimes. »

Il existe un risque que la consultation synthétique remplace graduellement des formes d’engagement réelles, souvent plus lentes et moins efficaces, surtout sous les contraintes budgétaires et la pression politique. Étant donné que les jumeaux numériques reflètent les données sur lesquelles ils sont formés, ils peuvent également amplifier les perspectives de ceux qui sont déjà visibles dans le monde numérique, tout en négligeant les communautés les plus touchées par les résultats des politiques.

A lire :  Fonctionnalité Windows Capturant Vos Activités : Une Faiblesse Facilement Exploitée

Pour préserver la légitimité démocratique, des safeguard rails clairs sont nécessaires. Les communautés doivent avoir la possibilité de voir, contester et corriger leur représentation. Les modèles doivent être validés à partir de données de population réelles, et non à partir de critères internes. Les opinions synthétiques ne doivent pas remplacer la contribution publique statutaire, et leurs résultats doivent être considérés comme des signaux plutôt que comme des substitutions à la voix démocratique.

À mesure que les représentations basées sur l’IA passent d’expérimentations à infrastructures opérationnelles, il est urgent pour les décideurs de se poser des questions critiques : Qui contrôle les opinions synthétiques ? Qui en retire des bénéfices ? Et quel type d’avenir démocratique est en train de se construire en notre nom ?

Si ces conditions ne sont pas établies maintenant, les institutions pourraient se retrouver à répondre à des opinions synthétiques plutôt qu’à de véritables voix.

Le gouverneur Kathy Hochul vient de faire de New York le deuxième État aux États-Unis à imposer des réglementations complètes sur la sécurité de l’IA.

FAQ

Qu’est-ce que le cadre DTEF ?

Le cadre DTEF est une méthodologie développée pour évaluer la capacité des modèles d’IA à représenter les diverses opinions de différentes populations.

Pourquoi l’IA est-elle utilisée dans la prise de décision politique ?

L’IA est employée pour prédire des comportements et pour optimiser le temps et les ressources lors des consultations publiques, bien que son utilisation soulève des questions de légitimité.

Quels sont les enjeux de la représentativité ?

La représentativité des données générées par l’IA peut avec le temps conduire à une vision biaisée si elle ne prend pas en compte toutes les voix, notamment celles des plus marginalisées.

Comment les décideurs peuvent-ils s’assurer de la fiabilité des données synthétiques ?

Il est essentiel d’établir des standards clairs pour valider les modèles par rapport à des populations réelles et de s’assurer que les entrées synthétiques ne remplacent pas l’engagement public authentique.

Quel devrait être l’avenir de l’engagement public avec l’IA ?

L’avenir devrait viser à équilibrer l’utilisation de l’IA avec des méthodes traditionnelles d’engagement pour garantir que toutes les voix soient entendues et respectées dans le processus décisionnel.