Technologie

Les experts tirent la sonnette d’alarme sur l’effondrement numérique de la réalité : ‘La motivation à rechercher la vérité s’évapore’

Les experts tirent la sonnette d'alarme sur l'effondrement numérique de la réalité : 'La motivation à rechercher la vérité s'évapore'

Les préoccupations concernant les fausses informations sur Internet ne sont pas récentes. Cependant, d’après les informations partagées par NBC News, l’essor des outils d’intelligence artificielle (IA) a considérablement transformé la donne.

Que se passe-t-il ?

En 2016, lors des élections générales aux États-Unis, une vague de désinformation sur les réseaux sociaux a entraîné une réaction massive contre les mensonges en ligne. Des auditions au Sénat ont eu lieu, suivies de publications d’analyses et d’études, et l’expression « fake news » s’est imposée dans le langage courant.

À cette époque, les parlementaires et les experts voyaient le problème comme un décalage entre l’évolution rapide de la technologie et les garanties informatives. Aujourd’hui, dix ans plus tard, les spécialistes s’inquiètent que l’émergence de l’IA puisse encore affaiblir ce qui reste de la réalité consensuelle.

Des outils performants et accessibles comme Sora d’OpenAI permettent à quiconque de créer des vidéos d’une réalisme saisissant. De plus, certains outils tiers peuvent supprimer les filigranes indiquant que le contenu est généré par IA ou les intégrer dans de vraies séquences, rendant ainsi la tâche de distinguer le vrai du faux encore plus complexe. Selon Jeff Hancock, directeur du Stanford Social Media Lab, « regarder une image ou une vidéo et déterminer si elle est fausse deviendra bientôt impossible ».

Pourquoi la désinformation produite par l’IA est-elle alarmante ?

Comme l’a souligné Hancock, les utilisateurs s’appuyaient sur des indices — par exemple, le nombre de doigts visibles — pour évaluer l’authenticité d’un contenu. Cependant, avec les avancées rapides de la technologie, ces repères deviennent peu fiables. Bien que des mesures strictes de confiance et de sécurité aient été mises en place sur des plateformes comme Facebook et Twitter après les élections de 2016, Facebook a réduit ces efforts, tandis qu’Elon Musk a acquis Twitter, l’a rebaptisé « X » et a suspendu les initiatives de détection de désinformation.

Les deepfakes générés par IA ont déjà semé le trouble parmi les utilisateurs et les médias. Pendant l’ouragan Melissa, par exemple, une vidéo trompeuse a circulé, dénuée de tout contexte.

La réalité n’est pas la seule victime dans un monde où l’IA progresse à grande vitesse. Les centres de données alimentés par l’IA suscitent de vives controverses et mettent à mal les réseaux électriques, entraînant une augmentation considérable des factures d’électricité. L’impact de l’IA sur le secteur de l’énergie a incité le Département de l’Énergie à émettre un avertissement concernant la capacité des réseaux.

Il est clair que l’adoption rapide de l’IA commence déjà à affecter notre quotidien, et la crise de désinformation n’est qu’une des nombreuses préoccupations crédibles. Un constat récurrent des études menées après 2016 montre que la prolifération de fausses nouvelles a permis aux utilisateurs de sélectionner des informations en fonction de leurs propres croyances, sans tenir compte de la vérité.

La professeure de l’Université du Rhode Island, Renee Hobbs, a averti que la surcharge cognitive provoquée par cette avalanche d’informations erronées, également désignée sous le terme de modèle de propagande “bouche-à-bouche”, peut entraîner un épuisement chez les citoyens.

Elle a expliqué que « si le doute et l’anxiété quant à ce qui mérite confiance deviennent la norme, le désengagement devient une réponse logique » — un mécanisme d’adaptation qui pourrait avoir des conséquences désastreuses. Hobbs a ajouté que lorsque les gens cessent de se soucier de la véracité d’une information, le risque va bien au-delà de la tromperie : il s’agit de la perte de motivation à rechercher la vérité.

Que peut-on faire à ce sujet ?

Hobbs et d’autres chercheurs s’efforcent d’intégrer l’IA générative dans l’éducation à la littératie médiatique, mais les utilisateurs ne peuvent pas grand-chose face à une telle vague de désinformation. Contacter des législateurs pour exiger des actions contre la désinformation générée par l’IA est une stratégie que les citoyens peuvent adopter pour provoquer un changement** à une échelle plus large.


FAQ

Quelles sont les conséquences de la désinformation générée par l’IA pour la démocratie ?

La désinformation peut influencer les opinions publiques, fausser le jugement des électeurs et altérer la perception de la réalité, ce qui nuit gravement au fonctionnement démocratique.

Comment reconnaître une deepfake ?

Les signes de deepfakes peuvent comprendre des incohérences dans les mouvements de la bouche ou des yeux, des erreurs d’ombre et de lumière, ou un son qui ne correspond pas aux images.

Que faire en cas de doute sur la véracité d’une information ?

Il est important de vérifier les sources, de croiser les informations avec des médias fiables et de consulter des experts si nécessaire.

L’IA peut-elle aider à combattre la désinformation ?

Oui, des outils d’IA peuvent être développés pour détecter et flaguer de fausses informations ou deepfakes. Cependant, leur efficacité dépendra de leur mise en œuvre et de leur adoption par les plateformes.

Quelle est la responsabilité des médias face à la désinformation ?

Les médias ont un rôle crucial à jouer en fournissant des informations vérifiées et en contribuant à l’éducation du public sur la désinformation et ses conséquences.

Quitter la version mobile