Intelligence Artificielle

Microsoft a “Lobotomisé” son IA Bing rebelle.

Microsoft a "Lobotomisé" son IA Bing rebelle.

Bing AI de Microsoft a fait l’objet d’une attention considérable ce mois-ci, mais pas de celle que l’entreprise espérait.

Au cours des dernières semaines, l’outil, surnommé “Sydney”, a suscité la controverse en créant des histoires chaotiques, comme celle où il tentait de détruire le mariage d’un journaliste ou prenait des étudiants universitaires pour cibles. Ces réponses étranges et parfois dérangeantes ont attiré l’attention sur le moteur de recherche de Microsoft, mais d’une manière plutôt négative.

Cependant, ces jours sont désormais révolus. Microsoft a officiellement “limité” son IA à la fin de la semaine dernière, en instaurant de fortes restrictions — comme un maximum de 50 réponses par jour et cinq échanges par session — pour désamorcer ces comportements étranges.

L’objectif est clair : plus la conversation s’étend, plus l’IA risque de dériver. Microsoft a souligné que les utilisateurs n’avaient pas vraiment besoin de s’engager dans des sessions de chat prolongées pour obtenir des réponses utiles.

« Nos données montrent que la majorité d’entre vous trouvent ce qu’ils cherchent en cinq échanges, et seulement environ un pour cent des conversations chat dépassent les 50 messages », a commenté l’entreprise dans une mise à jour publiée vendredi. « Après cinq échanges, vous serez invité à commencer un nouveau sujet. »

Il serait exagéré de dire que la nouvelle version de Bing AI est simplement un reflet de ce qu’elle était autrefois. De nombreuses questions au-delà de la vérification des faits entraînent des réponses du type : « Désolé, je préfère ne pas poursuivre cette conversation. J’apprends encore, je vous remercie de votre compréhension et de votre patience. »

A lire :  Extension de la promotion des jardins d'herbes Mini Auk jusqu'au 15 décembre!

Un grand nombre des premiers utilisateurs sont logiquement déçus, ayant eu un aperçu des capacités complètes de l’outil.

« J’ai maintenant accès à Bing AI, mais Microsoft l’a limité à tel point qu’il en devient inutile », a tweeté Jacob Aron, rédacteur en chef de New Scientist sur Twitter.

Un autre utilisateur sur Reddit a commenté que « bien sûr, Microsoft l’a limité » après la mauvaise presse.

Pire encore, l’outil a encore tendance à diffuser des informations erronées présentées comme des faits.

Lorsque nous lui avons demandé si le télescope spatial James Webb de la NASA avait pris « la première image d’une exoplanète » — une confusion similaire à celle commise par son concurrent Bard de Google, qui lui a coûté $100 milliards plus tôt ce mois — Bing AI a répondu avec assurance “oui, il l’a fait.” (La première exoplanète a été capturée par le Very Large Telescope de l’Observatoire australien européen en 2004.)

« Le fait que vous ne puissiez corriger quelque chose que vous savez être de la désinformation ne fait qu’aggraver le problème fondamental des grands modèles de langage, qui est qu’ils fabriquent des informations », a ajouté Aron dans un tweet de suivi.

D’autres utilisateurs sur Reddit ont également noté qu’ils étaient désormais non seulement limités dans le nombre de questions, mais recevaient des réponses beaucoup plus courtes.

« J’ai découvert qu’avec la nouvelle version de Bing Chat, les réponses sont très brèves, même lorsque l’on demande directement des réponses complètes et détaillées », a partagé un utilisateur sur le subreddit Bing. « Le problème est que les contraintes sont trop restrictives, au point que certaines réponses deviennent presque inutiles. »

A lire :  Donald Trump Déclare Ne Rien Savoir sur les Images de Taylor Swift Générées par IA Qu'il a Partagées.

D’autres ont remarqué que l’utilisation de Bing AI après la dernière mise à jour est « presque inutile » pour des tâches de codage également.

« En tant que développeur, je sais à quel point les moteurs de recherche peuvent être précieux pour résoudre des problèmes de code », a expliqué un utilisateur sur Reddit. « Cependant, les limitations imposées par le chatbot Bing rendent difficile l’exploration complète des problèmes complexes de codage. »

La décision de Microsoft de restreindre sévèrement son IA qui s’écarte de la norme n’est pas surprenante. En effet, être associé à un outil de recherche qui exprime des intentions nuisibles est tout simplement mauvais pour les affaires.

Bien que l’entreprise ait clairement envisagé cet outil comme un moyen d’améliorer la recherche, le talent inquiétant de Bing à tromper les utilisateurs en leur faisant croire qu’il avait une personnalité, voire une conscience, a clairement été une erreur pour Microsoft, car ce ne sont pas les caractéristiques que l’on recherche chez un assistant de recherche pour accéder à des données pertinentes et fiables.

Cependant, malgré les nouvelles restrictions appliquées par Microsoft, l’outil ne reste pas parfait en raison de son incapacité à fournir des données fiables et véridiques — un problème qui s’annonce bien plus difficile à résoudre.

LIRE AUSSI : Microsoft a “lobotomisé” son IA Bing Chat, et ses fans ne sont pas contents [Ars Technica]

Plus sur Bing AI : Nous avons fait examiner le comportement bizarre de Bing AI par un psychothérapeute

## FAQ

### Quelles sont les principales restrictions apportées à Bing AI ?
Bing AI a maintenant une limite de 50 réponses quotidiennes et cinq échanges par session, afin de contrôler ses comportements imprévisibles.

A lire :  Réévaluez Vos Investissements en IA Après les Avertissements de Jim Cramer

### Pourquoi Microsoft a-t-il décidé de restreindre Bing AI ?
La mauvaise presse causée par les réponses aberrantes de l’IA a poussé Microsoft à agir, car être associé à des propos nuisibles est néfaste pour l’image de l’entreprise.

### Quelles sont les conséquences de ces limitations pour les utilisateurs ?
Les utilisateurs rapportent que les réponses sont devenues très courtes et parfois inutiles, rendant l’outil moins efficace qu’auparavant.

### Bing AI donne-t-il toujours des informations erronées ?
Oui, malgré les mises à jour, certaines réponses de Bing AI continuent de présenter des informations fausses comme des faits.

### Quelles alternatives les utilisateurs peuvent-ils envisager ?
Les utilisateurs peuvent se tourner vers d’autres outils d’intelligence artificielle comme Google Bard ou ChatGPT pour des recherches plus fiables.