Les frasques de la campagne
Après avoir remporté sa réélection en novembre dernier, la shérif de Philadelphie, figure controversée, a dû reconnaître que plusieurs articles présentés comme de la « presse positive » pour sa campagne avaient été élaborés par une intelligence artificielle.
Faux articles, vraies conséquences
D’après un rapport du Philadelphia Inquirer, un porte-parole de la campagne de la shérif Rochelle Bilal a confirmé que les nombreux articles disponibles sur le site officiel de la campagne étaient le fruit de l’outil ChatGPT d’OpenAI. Ce constat soulève des questions sur l’authenticité de l’information diffusée par son équipe.
Élue en 2019 avec la promesse d’« éliminer les nuages sombres » liés à la corruption au sein du bureau du shérif, Bilal a depuis été au centre de nombreuses controverses. Elle a été accusée d’exploiter un « fonds de liquidités » et d’être impliquée dans des allégations de harcèlement et de représailles.
Une image soigneusement construites
Jusqu’à récemment, la campagne de Bilal semblait bien en ordre sur son site web, mais une enquête révélait que celui-ci était truffé de récits en trompe-l’œil censés illustrer son « bilan » pendant son mandat. Ces 31 titres flatteurs étaient tous générés par IA. Il semble que personne ne se soit soucié de vérifier leur véracité avant leur publication.
Dans une déclaration fournie au Inquirer, la campagne a admis, sans signer, que l’utilisation de ChatGPT par un consultant externe pour la réélection était à l’origine de ces articles. Ce type de processus, où un chatbot diffuse des informations erronées, est appelé « hallucination ».
Des articles introuvables
Des recherches effectuées par le Inquirer ont mis en lumière le fait que certains de ces articles, attribués à des médias locaux tels que le Inquirer lui-même, n’étaient pas retrouvables en consultant les archives. Un représentant de la chaîne NBC10 a également confirmé qu’un des articles mentionnés était en réalité publié en 2016, avant l’entrée de Bilal en fonction.
Bien que la campagne et NBC10 aient éclairci certains points, de nombreuses questions demeurent : Qui était le consultant impliqué ? Pourquoi son travail n’a-t-il pas été soumis à un contrôle rigoureux ? A-t-il reçu des instructions précises pour utiliser cet outil, ou l’a-t-il fait pour gagner du temps ? Les mystères persistent, d’autant plus que le bureau du shérif n’a pas donné suite aux demandes des médias, laissant place au doute.
FAQ
Qu’est-ce que l’hallucination d’un chatbot ?
L’hallucination d’un chatbot se produit lorsque l’IA fournit des informations basées sur une interprétation erronée ou lorsqu’elle invente des détails sans fondement, tout en précisant ces inexactitudes de manière convaincante.
Pourquoi utiliser l’IA dans les campagnes politiques ?
L’IA peut être utilisée pour créer du contenu rapidement et améliorer l’efficacité de la diffusion d’informations, mais son utilisation doit être supervisée pour garantir l’exactitude.
Quels sont les risques liés à la désinformation générée par l’IA ?
L’usage d’informations erronées peut nuire à la réputation de ceux qui les promeuvent et conduire à une perte de confiance du public envers les institutions.
Comment vérifier l’authenticité des informations ?
Il est conseillé de consulter plusieurs sources d’information et de se tourner vers des médias reconnus pour leur fiabilité et leur rigueur journalistique.
Quel impact cela peut-il avoir sur les élections ?
La désinformation peut influencer les opinions des électeurs, faussant ainsi le processus démocratique, ce qui soulève des préoccupations éthiques majeures pour l’avenir des campagnes électorales.
