Inscrivez-vous pour découvrir le futur, dès aujourd’hui
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Des innovations incontournables à la pointe de la science et de la technologie</p>
</div>
</div>
</div>
Avec la montée en puissance de l’**IA générative** dans le grand public, un mélange d’enthousiasme et d’inquiétude en a rapidement découlé. Malheureusement, une récente étude collaborative menée par des chercheurs de **Stanford**, **Georgetown** et **OpenAI** révèle que l’un des problèmes principaux est la potentialité que les outils d’IA générant du langage, comme **ChatGPT**, deviennent des moteurs de désinformation massive. C’est une possibilité qui n’est pas seulement envisageable, mais qui semble **imminente**.
Les chercheurs soulignent que ces **modèles linguistiques** rendent l’automatisation de la création de textes convaincants et trompeurs un peu trop facile, évitant ainsi la nécessité du travail humain. Ils ajoutent qu’en société, ces avancées soulèvent de nouvelles inquiétudes concernant la capacité de certains acteurs à mettre en œuvre des campagnes d’influence à grande échelle et potentiellement très efficaces.
Ils ont étudié comment ces modèles de langage influenceront les **opérations d’influence**, en examinant les acteurs impliqués, les tactiques trompeuses employées et le contenu produit. Leur conclusion indique clairement que ces modèles pourront modifier de manière significative la façon dont de telles opérations seront menées à l’avenir.
En d’autres termes, l’avenir semble sombre, car les **IA génératrices** faciliteront la création de quantités massives d’informations erronées, transformant potentiellement Internet en un véritable “enfer de post-vérité”. Les particuliers, les entreprises et les gouvernements doivent s’attendre à des conséquences sérieuses.
L’histoire a déjà montré que les *technologies* nouvellement adoptées peuvent bouleverser les dynamiques politiques mondiales. Par exemple, lors du cycle électoral de **2016**, des bots russes ont tenté de diffuser du contenu *divisif*, souvent faux ou trompeur, afin de perturber la campagne politique américaine.
Bien que l’**efficacité réelle** de ces campagnes de bots ait été débattue par la suite, leur technologie semble désuète face à des outils comme **ChatGPT**. Celui-ci, malgré certaines lacunes – comme des écrits de qualité variable et des informations souvent erronées – est très capable de produire un contenu qui semble convaincant et cela à une échelle impressionnante, réduisant ainsi le besoin d’un **effort humain** coûteux et chronophage.
Avec les systèmes de modélisation linguistique, la désinformation devient non seulement plus accessible mais aussi **moins coûteuse**, aggravant ainsi les risques et les dommages potentiels, et ce de manière plus rapide et fiable.
L’étude souligne que la capacité de ces modèles à rivaliser avec le contenu écrit par des humains à faible coût pourrait offrir des avantages importants aux propagandistes. Cela pourrait accroître l’engagement d’un plus grand nombre d’acteurs, introduire de nouvelles tactiques d’influence et rendre les messages des campagnes beaucoup plus adaptés et potentiellement efficaces.
Il est important de noter que, étant donné la rapidité des évolutions dans le domaine de l’IA et de la désinformation, ces recherches restent partiellement spéculatives. Néanmoins, le tableau dressé pour l’avenir d’Internet est préoccupant.
Malgré tout, le rapport ne se limite pas à un constat catastrophique. Les chercheurs proposent également quelques solutions pour tenter de contrer cette nouvelle ère de désinformation alimentée par l’IA. Bien que ces mesures ne soient pas parfaites et parfois même peu réalisables, elles restent un point de départ.
Les entreprises d’IA peuvent par exemple adopter des politiques de développement plus strictes, garantissant que leurs produits ne soient pas mis sur le marché tant que des *protéges* comme les **filigranes** ne sont pas intégrés. De leur côté, les éducateurs pourraient promouvoir l’**éducation médiatique** dans les écoles, en intégrant des notions sur les signaux subtils qui peuvent indiquer un contenu généré par IA.
D’autre part, les plateformes de distribution pourraient développer une fonctionnalité de liste de “preuve d’identité”, bien plus approfondie que de simples CAPTCHA existants, et établir un département spécialisé pour identifier et exclure les acteurs malveillants utilisant l’IA. Plus audacieusement, certains chercheurs suggèrent d’envisager l’utilisation de **”données radioactives”**, une approche complexe consistant à former des machines sur des ensembles de données traçables, bien que cela comporte des risques importants.
Il y aura sûrement des défis et des risques associés à chacune de ces propositions, et aucune d’elles ne pourra à elle seule résoudre les problèmes liés à l’utilisation abusive de l’IA. Toutefois, nous devons agir, surtout face à l’avance considérable que semblent avoir ces programmes d’IA.
LIRE ENCORE : Comment les “données radioactives” pourraient aider à révéler des IA malveillantes [Platformer]
Sommaire
ToggleFAQ
Qu’est-ce que l’IA générative ?
L’IA générative désigne des modèles capables de produire du contenu, comme du texte ou des images, en apprenant à partir de grandes quantités de données.
Comment peut-on identifier la désinformation générée par l’IA ?
L’identification peut se faire grâce à des outils spécialisés qui analysent le style d’écriture, l’authenticité des informations et la source d’origine.
Quels sont les risques associés à la désinformation ?
La désinformation peut entraîner une polarisation politique, une manipulation de l’opinion publique, et nuit à la confiance dans les médias et les institutions.
Quelles mesures peuvent être prises pour contrer la désinformation en ligne ?
Des campagnes de sensibilisation à l’éducation médiatique, le développement de technologies de vérification, et des régulations gouvernementales peuvent aider à lutter contre ce phénomène.
Pourquoi est-ce important de réglementer l’IA ?
Réguler l’IA est essentiel pour protéger les individus et la société contre les risques de manipulation, de désinformation et d’abus de pouvoir.
