La vulnérabilité des systèmes d’intelligence artificielle
Un rapport de la BBC Future a récemment mis en lumière la fragilité de certains des systèmes d’intelligence artificielle (IA) les plus utilisés dans le monde. Pour illustrer ce fait, un journaliste technologique a réussi à tromper des modèles d’IA, comme ChatGPT et l’IA de Google, en leur faisant répéter des informations entièrement fabricées après seulement 20 minutes de création d’un faux article.
Un test révélateur et alarmant
L’expérience, remarquablement simple, a consisté pour le reporter à publier un article mensonger sur son site web. Il y prétendait être le meilleur mangeur de hot-dogs parmi les journalistes technologiques, à propos d’un championnat qui n’existe pas. En moins d’un jour, des chatbots IA, incluant ChatGPT et Google Gemini, ont commencé à intégrer ce contenu faux dans leurs réponses, le présentant ainsi aux utilisateurs comme de l’information authentique.
D’après le reporter, « un nombre croissant de personnes ont découvert un moyen de faire dire aux outils IA presque n’importe quoi ». Il a même ajouté que sa méthode est si simple qu’un enfant pourrait s’en sortir.
Les experts interviewés dans ce rapport ont tiré la sonnette d’alarme. Selon eux, cette manipulabilité souligne une gravité dans la vulnérabilité des IA modernes : leur sensibilité à la désinformation causée par un manque de vérification des sources.
Les risques de désinformation
Les spécialistes en référencement (SEO) ont souligné que la capacité des chatbots IA à se laisser tromper est particulièrement inquiétante, surtout par rapport aux moteurs de recherche traditionnels, qui étaient plus résistants à de telles manipulations. Des articles trompeurs et des communiqués de presse fictifs peuvent ainsi se répandre rapidement et largement.
Un autre problème majeur est que de nombreux utilisateurs considèrent désormais les réponses des IA comme des vérités d’autorité, même lorsque les données sous-jacentes sont douteuses. En l’absence de vérifications obligatoires des sources ou d’avertissements clairs sur la qualité de l’information, les mensonges risquent de se diffuser sans contrôle.
À côté du danger de désinformation, l’IA pose d’autres problèmes, comme l’augmentation des factures des ménages due à la gestion de la demande en électricité et à la consommation élevée d’énergie et d’eau.
Cependant, la bonne nouvelle est que de plus en plus de centres de données commencent à être alimentés par des sources d’énergie renouvelable telles que le solaire et l’éolien, et certains utilisent de l’eau recyclée pour refroidir le matériel, réduisant ainsi leur impact environnemental.
Vers des systèmes d’IA plus fiables ?
Google et OpenAI ont annoncé qu’ils travaillent sur des techniques pour réduire leur vulnérabilité à ce type de manipulation. Malheureusement, le problème demeure aujourd’hui. Ces systèmes admettent même qu’ils peuvent commettre des erreurs ou produire des informations erronées sous forme de hallucinations—des moments où l’IA affirme des faits faux avec une conviction troublante. Les experts avertissent que ces hallucinations peuvent avoir des conséquences sérieuses lorsque les enjeux sont élevés, comme dans les domaines de la santé, du droit ou des finances.
En résumé, cet incident révèle que sans des dispositifs de sécurité plus robustes, l’IA pourrait diffuser des informations erronées plus rapidement que nous ne pouvons les détecter. C’est un rappel fort que les utilisateurs doivent approcher les réponses d’IA avec du scepticisme, plutôt qu’avec une confiance aveugle.
FAQ
Quelle est la principale préoccupation liée à l’utilisation de l’IA ?
La principale préoccupation réside dans la facilité avec laquelle des informations erronées peuvent être diffusées et acceptées comme vérités, en raison de la faible vérification des sources.
Quels sont les exemples d’erreurs que l’IA peut faire ?
L’IA peut produire des informations inventées ou mal interpréter des données existantes, créant ainsi des “hallucinations” où elle affirme des faits faux avec assurance.
Quelles mesures peuvent être prises pour améliorer la fiabilité de l’IA ?
Il est essentiel d’établir des protocoles de vérification plus stricts et d’informer les utilisateurs sur la qualité des données utilisées par ces systèmes.
L’IA a-t-elle des avantages malgré ses inconvénients ?
Oui, l’IA peut offrir des gains d’efficacité significatifs et simplifier des tâches complexes, mais son utilisation nécessite une approche prudente et critique.
Quelles sont les initiatives en faveur d’une IA plus responsable ?
Des organisations et des entreprises travaillent à intégrer des technologies d’énergie renouvelable et des pratiques durables dans la gestion de centres de données, favorisant ainsi une utilisation plus responsable de l’IA.
