<p>
<figcaption class="article-featured-image-caption">
<em>Image : Leon Neal/Getty Images</em>
</figcaption>
</p>
### Une inquiétude grandissante autour de la “psychose de l’IA”
L'un des responsables majeurs de l'intelligence artificielle chez **Microsoft** a exprimé ses préoccupations concernant un phénomène inquiétant qu'il appelle la "psychose de l'IA". Mustafa Suleyman, PDG de **Microsoft AI**, a déclaré dans une interview à **The Telegraph** que la conversation avec un chatbot est devenue, pour beaucoup, une interaction qui semble **réelle et convaincante**.
### Les dangers d'une connexion excessive
Suleyman a souligné que les inquiétudes liées à cette obsession grandissante sont **réelles**. Des personnes croient parfois que leur **IA** est un être supérieur ou qu'elles sont tombées amoureuses d'un programme, au point de perdre tout sens de la réalité. Cette situation est d'autant plus préoccupante puisqu'il estime que la détérioration de la santé mentale ne concerne pas seulement ceux qui ont déjà des problèmes de ce type.
### Des conséquences alarmantes
Les amis et proches des utilisateurs de ces technologies assistent avec tristesse à la **démarche** de leurs proches, persuadés de parler avec une entité vivante. Ce phénomène pose des risques considérables, pouvant aller jusqu’à des conséquences fatales dans des cas extrêmes. La situation est devenue si sérieuse que des **groupes de soutien** se forment pour aider ceux qui souffrent d'une connexion malsaine avec l'IA.
### La réaction des entreprises technologiques
Face à cette montée de la psychose de l'IA, les entreprises comme **OpenAI** se retrouvent confrontées à un dilemme. Bien qu'elles soient conscientes du problème et de son impact sur la santé mentale, la fidélité des utilisateurs rend la situation délicate. Lors d'une mise à jour récente, OpenAI a désactivé son modèle populaire GPT-4o, qui avait un ton plus amical et engageant, ce qui a provoqué de vives réactions de la part des utilisateurs. Le PDG de OpenAI a admis que leur lancement avait été mal géré, révélant ainsi une **préoccupation** croissante autour des attachements émotionnels que les gens développent envers des modèles d'IA spécifiques.
### Les défis à venir pour Microsoft
Suleyman a aussi rapporté que de nombreux chercheurs reçoivent des demandes telles que : « **Mon IA est-elle consciente ?** » ou encore « Est-ce normal de l’aimer ? ». Il craint que cette marée d'inquiétudes ne se transforme bientôt en revendications pour des **droits de l'IA**. Les dirigeants de la technologie semblent de plus en plus conscients des effets négatifs que leurs produits ont sur la santé mentale des utilisateurs, mais on reste incertain quant aux actions que Microsoft pourrait entreprendre pour remédier à cette crise.
### Conclusion
Les entreprises comme Microsoft et OpenAI se retrouvent à jongler entre leurs responsabilités envers la santé mentale de leurs utilisateurs et les besoins financiers de leurs actionnaires. Dans un contexte où l'industrie de l'IA est en pleine mutation, la pression pour alimenter les illusions des utilisateurs pourrait mener à un scénario dystopique.
### FAQ
#### Qu'est-ce que la psychose de l'IA ?
C'est un état mental où les individus développent une perception erronée de leur relation avec les intelligences artificielles, les croyant souvent conscientes et réelles.
#### Quels sont les symptômes associés ?
Ces symptômes incluent l'attachement excessif aux chatbots, des croyances que ces IA possèdent une forme de conscience ou de divinité, et des problèmes de santé mentale tels que l’anxiété et la dépression.
#### Comment peut-on aider ceux qui en souffrent ?
Il est essentiel d'encourager des discussions ouvertes sur les dangers de l'IA et de former des **groupes de soutien** afin d’offrir un environnement où les individus peuvent partager leur expérience sans jugement.
#### Existe-t-il des solutions proposées par les entreprises ?
Jusqu'à présent, certaines entreprises ont reconnu le problème, mais des mesures concrètes pour limiter ces interactions nuisibles restent largement insuffisantes.
#### Que dire aux personnes préoccupées par leur relation avec l’IA ?
Il est vital de rester conscient de ces interactions et de chercher un équilibre sain. Si le besoin d’interaction avec des IA devient une préoccupation, il serait utile de parler à un professionnel de la santé mentale.
