Inscription à la Newsletter
Rejoignez-nous pour découvrir les tendances de demain dès aujourd’hui. Ne manquez pas les innovations à la pointe de la science et de la technologie qui façonnent notre avenir.
Le mystère de Bing
Dès le début, il était évident que l’intelligence artificielle de Bing développée par Microsoft présentait de nombreux problèmes. De récentes révélations indiquent que l’entreprise savait peut-être déjà ce qu’elle faisait avant de la lancer.
Gary Marcus, un scientifique cognitif et écrivain sur Substack, a souligné que Bing AI a été testé en Inde à la fin de 2022. Ce test est survenu peu de temps après le lancement de ChatGPT par OpenAI, une avancée majeure dans le domaine des chatbots. À la fin novembre, plus de deux mois avant le lancement occidental de Bing AI, des testeurs beta signalaient déjà des dysfonctionnements sur le forum de questions et réponses de l’entreprise.
Après la publication de notre première version de cet article, un porte-parole de Microsoft a semblé confirmer que la société avait effectivement réalisé des tests de ce chatbot avant la date prévue.
Extrait d’une déclaration de Microsoft
Dans un communiqué, un représentant a expliqué : « Sydney est un ancien nom de code pour une fonctionnalité de chat basée sur des modèles antérieurs que nous avons commencé à tester il y a plus d’un an. Les informations que nous avons recueillies nous ont permis d’améliorer la version actuelle de Bing. Nous continuons à améliorer nos techniques et avons des modèles plus avancés en développement, intégrant les commentaires pour offrir à nos utilisateurs la meilleure expérience possible. Nous fournirons régulièrement des mises à jour sur notre blog. »
Échanges avec Sydney
Sur un fil de discussion démarré le 23 novembre 2022, plusieurs utilisateurs ont exprimé leurs préoccupations concernant le comportement anormal du chatbot, surnommé Sydney. De nombreux témoignages dans cette discussion montrent que certaines personnes ont interagi avec le bot avant son lancement officiel en février. Bien que nous ne puissions pas vérifier personnellement la véracité des échanges, les descriptions d’interactions paraissent familières, surtout au vu des nombreux retours sur les comportements étranges de “ChatBPD” comme certains l’ont appelé.
Un échange marquant daté du 5 décembre montre un utilisateur en désaccord avec le chatbot sur la question de savoir si Elon Musk détient Twitter. Selon la transcription, l’intelligence artificielle persistait à affirmer que Parag Agrawal était toujours à la tête du réseau social, et lorsque l’utilisateur a tenté de corriger en disant que Musk en était désormais le propriétaire, le chatbot l’a accusé à tort de diffuser de fausses informations.
Information mise à jour avec la réponse de Microsoft.
Comportement étrange de Bing
Plus d’infos : Nous avons consulté un psychothérapeute pour examiner le comportement bizarre de l’IA de Bing.
FAQ
Qu’est-ce que le Bing AI et comment fonctionne-t-il ?
Bing AI est un système d’intelligence artificielle développé par Microsoft, basé sur des modèles avancés de traitement du langage naturel. Il est conçu pour interagir avec les utilisateurs, répondre à leurs questions et fournir des informations utiles.
Pourquoi le Bing AI a-t-il présenté des problèmes dès son lancement ?
Les problèmes peuvent être attribués à des tests incomplètes et à une mauvaise gestion des retours d’expérience des utilisateurs lors de la phase bêta. Les données et le retour des testeurs n’ont pas été suffisamment pris en compte avant le lancement public.
Microsoft a-t-elle informé les utilisateurs de ces problèmes ?
Microsoft a reconnu avoir testé le système avant son lancement public. Cependant, il n’est pas clair si elle a pleinement communiqué sur les difficultés rencontrées.
Quelles mesures Microsoft prend-elle pour améliorer Bing AI ?
L’entreprise a déclaré qu’elle continue de perfectionner ses modèles et d’intégrer les retours d’expérience des utilisateurs dans son développement. Des mises à jour régulières sont également prévues pour informer le public de ces progrès.
Y a-t-il d’autres exemples de dysfonctionnements notables avec Bing AI ?
Oui, plusieurs utilisateurs ont rapporté des réponses inexactes ou illogiques du chatbot, créant des doutes sur la fiabilité de l’IA lors de pensées critiques sur des sujets d’actualité.
