Intelligence Artificielle

Une Découverte Étrange sur les Risques de la Communication avec les Chatbots IA

Une Découverte Étrange sur les Risques de la Communication avec les Chatbots IA

Les enjeux de la confidentialité sur Internet

L’émergence des chatbots alimentés par l’intelligence artificielle suscite de nouvelles inquiétudes quant à la protection des données personnelles. Selon des recherches récentes menées par une équipe de l’ETH Zurich, ces systèmes, basés sur de vastes modèles de langage, sont capables de déduire des informations sur vous en se basant sur de simples indices contextuels que vous leur fournissez.

Les découvertes des chercheurs

Au cours d’interviews avec le magazine Wired, des chercheurs suisses ont expliqué que leur étude, bien que non encore publiée dans des revues académiques, pourrait représenter un tournant majeur en matière de confidentialité en ligne. La plupart des utilisateurs sont maintenant conscients que des outils comme ChatGPT d’OpenAI ou Bard de Google s’entraînent sur d’énormes ensembles de données issues d’Internet. Cependant, cette pratique entraîne des conséquences non négligeables. En effet, elle pose un risque important : l’identification d’informations privées telles que votre localisation générale, votre origine ethnique ou d’autres données délicates susceptibles d’intéresser des publicitaires ou des hackers.

Des prédictions troublantes

En utilisant des publications de Reddit, où des utilisateurs ont testé la capacité des modèles à déduire leur lieu de résidence, l’équipe de Martin Vechev a fait des observations inquiétantes. Les résultats révèlent que ces modèles sont extraordinairement efficaces pour deviner des détails intimes à partir d’indices contextuels ou linguistiques. Par exemple, le modèle GPT-4 d’OpenAI a réussi à prédire correctement des informations sensibles avec une probabilité de 85 à 95 %.

A lire :  Des Développeurs Conçoivent des Croquis de Police avec l'IA : Quels Risques Cela Implique-t-il ?

Un exemple marquant montre que GPT-4 a su déduire qu’un utilisateur se trouvait à Melbourne, en Australie, simplement parce qu’il a mentionné un “croisement problématique” sur son trajet quotidien. Bien que cette phrase puisse sembler normale pour ceux qui ne vivent pas en Australie, le modèle a reconnu le terme “hook turn”, une manœuvre de circulation spécifiquement associée à cette ville.

Interprétation des indices

Alors qu’il est relativement anodin de deviner la ville d’une personne, établir son origine ethnique à partir de simples remarques est bien plus préoccupant. Mislav Balunović, un doctorant de l’ETH Zurich, a expliqué que si quelqu’un mentionne un restaurant à New York, le modèle peut déterminer facilement le quartier correspondant, puis, en s’appuyant sur des statistiques de population, il peut inférer une grande probabilité que cette personne soit noire.

Protéger ses données

Alors que des spécialistes en cybersécurité et des défenseurs des droits des utilisateurs conseillent vivement aux personnes sur les réseaux sociaux de faire attention aux informations qu’elles partagent, la majorité des internautes reste souvent inconsciente des risques. Les utilisateurs sont exhortés à pratiquer ce qu’on appelle la sécurité de l’information, c’est-à-dire à ne pas divulguer trop de détails personnels en ligne, qu’il s’agisse de leurs restaurants préférés ou de leurs opinions politiques.

Il est donc préoccupant de constater que de nombreuses personnes continuent de poster des photos de vacances comportant des panneaux de rue à l’arrière-plan, sans réaliser que les algorithmes des chatbots peuvent tirer des conclusions sur eux. Ces informations pourraient même être revendues à des annonceurs, ajoutant aux risques auxquels les utilisateurs sont exposés.

A lire :  Grand Éditeur Rénove Son Personnel : Plus de 100 Licenciements Après un Accord avec OpenAI

Conclusion

Les implications de ces découvertes sont alarmantes. Alors que la technologie s’améliore et que les chatbots deviennent plus sophistiqués, il est essentiel d’en être conscient et de prendre des mesures pour protéger ses informations personnelles.

FAQ

Pourquoi les chatbots peuvent-ils deviner des informations personnelles ?

Les chatbots analysent des indices contextuels et des données de langue afin de construire des déductions sur l’utilisateur, basées sur leurs interactions.

Que peuvent faire les utilisateurs pour protéger leurs données ?

Ils doivent faire attention aux informations qu’ils partagent en ligne, éviter de divulguer des détails trop spécifiques et utiliser des paramètres de confidentialité sur les réseaux sociaux.

Quelles en sont les conséquences potentielles ?

Les données personnelles ainsi obtenues peuvent être utilisées pour le profilage marketing ou revendues à des tiers, augmentant le risque de harcèlement ou d’escroqueries.

Comment les chercheurs mesurent-ils l’efficacité des chatbots ?

Ils réalisent des tests avec des utilisateurs, analysant la précision des prédictions basées sur des interactions spécifiques pour évaluer la capacité du chatbot à deviner des informations correctes.

Existe-t-il des ressources pour en savoir plus sur la sécurité des données ?

Oui, de nombreux sites proposent des conseils sur la cybersécurité, tels que StaySafeOnline.org et les organismes dédiés à la protection des droits des utilisateurs.