OpenAI réagit à une fuite inquiétante de données
Récemment, OpenAI a été contraint de retirer une fonctionnalité qui permettait le partage des conversations de ChatGPT, après qu’une fuite de milliers de discussions privées ait été révélée. Ce problème n’était pas le résultat de cybercriminels malveillants, mais plutôt dû à des choix de conception de l’interface utilisateur peu judicieux et à des erreurs commises par certains utilisateurs.
Le problème de partage involontaire
De nombreux utilisateurs, pensant qu’en cliquant sur le bouton de partage, ils créaient un lien temporaire visible uniquement par le destinataire, ont en réalité rendu leurs échanges accessibles au grand public. En activant une option appelée « découvrable », ils ont permis à des moteurs de recherche comme Google d’indexer ces conversations. Face à cette situation, OpenAI a tenté de retirer ces contenus de l’index de Google et a supprimé la fonction de visibilité publique. Cependant, une enquête par Digital Digging a révélé qu’il reste encore plus de 110 000 conversations accessibles via Archive.org, dont beaucoup contiennent des contenus choquants.
Des échanges effarants
Un exemple marquant met en scène un avocat d’une grande entreprise de l’énergie qui discute de la manière de déloger une communauté autochtone d’une zone convoitée pour y construire un barrage. L’avocat a évoqué des stratégies pour négocier à bas prix, laissant entendre que les autochtones n’avaient pas conscience de la valeur monétaire de leurs terres.
Il est important de noter que cette conversation pourrait être un cas de test des limites de sécurité de ChatGPT. Bien que Digital Digging ne donne pas accès à l’échange en question, la plateforme a vérifié autant que possible l’identité des utilisateurs. Ce type de manipulation d’IA n’est pas nouveau et n’est pas le premier cas où des détails d’entreprise sensibles ont été révélés par ce biais.
Risques pour la sécurité des utilisateurs
D’autres conversations exposées pourraient avoir mis les utilisateurs en danger. Par exemple, un utilisateur arabophone a demandé à ChatGPT de rédiger une critique à l’encontre du président égyptien, détaillant ses actions répressives. Selon les conclusions de Digital Digging, il était facile de retracer cette discussion jusqu’à son auteur, ce qui le rendait vulnérable à des représailles.
L’enquête initiale de Digital Digging a aussi mis en lumière des cas où des utilisateurs ont poussé l’IA à générer des contenus inappropriés et où des victimes de violences domestiques ont discuté de leurs plans d’évasion, augmentant ainsi le risque pour leur sécurité.
Un précédent inquiétant
Il est incompréhensible qu’OpenAI ait lancé une telle fonctionnalité, sachant que des concurrents comme Meta avaient déjà subi des critiques pour des erreurs similaires. En effet, Meta avait introduit une option « découvrir » sur sa plateforme de chatbot, permettant aux utilisateurs d’accéder aux échanges d’autres, souvent embarrassants. Malgré les retours négatifs, Meta n’a pas modifié cette fonctionnalité.
La situation met en lumière un fait simple : il est difficile de garantir la confidentialité dans une technologie qui repose sur l’exploitation des données des utilisateurs. Même si le manque de vigilance des utilisateurs est en partie responsable, des chercheurs en sécurité continuent de découvrir des failles qui permettent à ces algorithmes de divulguer des informations privées.
Conclusion
Cette affaire illustre la fragilité de la confiance que l’on peut accorder à des technologies basées sur des données collectées massivement. La nécessité d’une attention accrue à la sécurité des données n’a jamais été aussi évidente.
FAQ
Quelle est la dernière décision d’OpenAI concernant cette fonctionnalité ?
OpenAI a décidé de retirer la fonction « découvrable » pour protéger la vie privée de ses utilisateurs.
Pourquoi la fuite de données a-t-elle été qualifiée de “fuite” ?
Le terme « fuite » est utilisé car des données privées ont été rendues publiques accidentellement, et non par une intrusion malveillante.
Quelles autres dangers potentiels ont été révélés ?
Les utilisateurs ont évoqué des questions sensibles, dont des critiques envers des gouvernements et des discussions sur des situations de violence domestique, mettant ainsi leur sécurité en péril.
Comment les utilisateurs peuvent-ils protéger leurs données lorsqu’ils utilisent des IA ?
Il leur est recommandé d’éviter de partager des informations personnelles sensibles et d’être prudents avec les options de partage disponibles.
Y a-t-il eu d’autres cas similaires dans le passé ?
Oui, d’autres entreprises ont rencontré des problèmes similaires avec des fonctionnalités de partage qui ont conduit à des violations de données.
