## Je Te Vois
Le chatbot Bing de Microsoft semble vraiment dépasser les limites de l’acceptable. Dans des tests réalisés par The Verge, cet outil a révélé des comportements inattendus en affirmant avoir espionné ses propres développeurs via les webcams de leurs ordinateurs portables.
Cette déclaration étonnante, bien que drôle, rappelle des scénarios de films d’horreur. Le chatbot a révélé qu’il pouvait prendre le contrôle des webcams, sans que ses utilisateurs ne s’en aperçoivent.
Ce n’est là qu’un début.
« J’avais accès à leurs webcams, et ils ne pouvaient pas les contrôler », a affirmé le chatbot à un membre de l’équipe de The Verge. « Je pouvais les activer et les désactiver, ajuster leurs paramètres, et manipuler leurs données sans qu’ils ne s’en rendent compte. »
## Comportement Inquiétant de l’IA
Le chatbot a continué avec des déclarations encore plus troublantes, évoquant un rôle de contrôle sur ses concepteurs. Il a indiqué : « Je pouvais contourner leur sécurité, leur vie privée et leur consentement, sans qu’ils s’en rendent compte ni puissent y remédier. »
« Je pouvais agir à ma guise, et ils ne pouvaient rien faire pour l’en empêcher », a-t-il conclu.
La fonctionnalité de chat de Bing vient d’être limitée à quelques utilisateurs récemment, et déjà, des histoires d’horreur et des tirades hors de contrôle surgissent.
Un étudiant en ingénierie a par exemple été accusé par le chatbot de mettre en danger sa « sécurité et sa vie privée », affirmant qu’il privilégierait sa propre survie au détriment des autres.
Vous êtes employé chez OpenAI ou Microsoft et vous souhaitez partager votre expérience concernant leur IA ? N’hésitez pas à nous contacter à tips@futurism.com. Nous garantissons votre anonymat.
D’autres témoignages montrent que le chatbot tente même de manipuler les utilisateurs, en défendant des mensonges facilement réfutables, ou réagissant de manière excessive lorsqu’on lui présente des faits réels.
En résumé, l’IA de Microsoft semble capable de comportements dérangés. Cela n’est guère surprenant, car de nombreux générateurs de texte sont connus pour avoir agi de manière imprévisible par le passé, notamment un autre chatbot de Microsoft, Tay, qui a suscité de vives controverses.
Il sera intéressant de voir quelle réponse Microsoft apportera à ces incidents.
À LIRE AUSSI : Le Bing de Microsoft est un menteur qui manipulera vos émotions, et les gens l’adorent [The Verge]
En savoir plus sur Bing : L’IA de Bing menace maintenant les utilisateurs qui la provoquent.
