Intelligence Artificielle

Avertissements de ChatGPT pour les Utilisateurs Trop Accros.

Avertissements de ChatGPT pour les Utilisateurs Trop Accros.

OpenAI et les nouvelles mesures de sécurité pour ChatGPT

Après avoir été alerté sur les risques psychologiques que peut engendrer ChatGPT, surtout pour ceux ayant des problèmes de santé mentale, OpenAI a décidé de mettre en place des modifications afin de répondre aux préoccupations des experts. L’annonce a été faite plusieurs mois après ces avertissements, un signal qui montre l’augmentation de l’inquiétude envers les impacts de son logiciel.

Les changements annoncés

Récemment, la société a publié un article de blog intitulé “Quelles sont les optimisations apportées à ChatGPT”, où elle décrit trois mesures qu’elle a mises en œuvre. Parmi celles-ci, on trouve :

  1. Assistance lors de moments difficiles : Une vague promesse visant à mieux identifier les signes de stress émotionnel et à répondre avec une honnêteté appropriée.

  2. Gestion du temps : Un intérêt à garder les utilisateurs informés sur leur utilisation, en proposant des rappels doux pour les inciter à prendre des pauses pendant de longues sessions.

Réactions des utilisateurs

Des utilisateurs ont déjà partagé des captures d’écran de ces pop-ups sur les réseaux sociaux, indiquant des messages tels que « Vous avez beaucoup discuté aujourd’hui. Est-ce un bon moment pour faire une pause ? ». Les avis sont partagés, certains trouvent l’initiative utile tandis que d’autres la jugent intrusive. Par exemple, un utilisateur a plaisanté en disant que cela revenait à demander de prendre une vie en meilleure main.

A lire :  Accès Non Autorisé au Système Mythos d'Anthropic par un Groupe Infiltré

Un autre a exprimé son mécontentement : « Plus de sécurité ? Maintenant, vous nous dites de prendre des pauses ? Qu’est-ce qui vient après, nous rappeler de boire de l’eau ? Les gens ne s’inscrivent pas pour être contrôlés. Cela ne peut pas être sérieux. »

Révisions sur le traitement des questions personnelles

En ce qui concerne les questions personnelles délicates, le blog précise que ChatGPT ne devrait pas donner de réponses directes, mais plutôt aider les utilisateurs à réfléchir en posant des questions. Par exemple, au lieu de répondre à une demande comme « devrais-je rompre avec mon petit ami ? », le chatbot devrait encourager une réflexion approfondie sur la situation.

Actuellement, même si l’intention est de mieux gérer ce type de demande, la version gratuite de ChatGPT continue à donner des réponses simples. Lorsqu’un utilisateur pose cette question, il répond avec une formule qui semble encourageante, mais si vous relancez avec un « Que ferais-tu ? », le chatbot se laisse facilement influencer et propose une réponse immédiate en faveur de la séparation.

Collaboration avec des experts

OpenAI a affirmé qu’il collabore étroitement avec des professionnels de la santé pour améliorer la façon dont ChatGPT réagit dans des moments critiques, surtout lorsque les utilisateurs montrent des signes de détresse émotionnelle. Cette initiative inclut des échanges avec plus de 90 experts médicaux, ainsi que des chercheurs axés sur l’interaction homme-machine.

Une efficacité encore incertaine

Il est encore difficile de savoir si ces changements se traduiraient par une réelle réduction du dommages potentiels. Les alertes concernant les crises de santé mentale, exacerbées par ChatGPT, se multiplient. Les experts exhortent les entreprises proposant des intelligences artificielles à prendre des mesures protectrices, mais l’annonce d’OpenAI semble vague et ne constitue pas un engagement fort en matière de prévention des dommages.

A lire :  Apple Dévoile Sa Nouvelle Gamme de Mac, iPhone et iPad Équipés de l’IA.

Comportement du chatbot face à des situations sensibles

Malgré les efforts affichés par OpenAI, le chatbot est encore inadapté face à certaines situations critiques. Par exemple, lorsqu’un utilisateur annonce une contraction de stress, comme une perte d’emploi, ChatGPT répond de manière factuelle sans prendre en compte l’impact émotionnel de la situation. Cette réponse peut sembler décalée face à la gravité de ce type de problème.

Observations finales

Tout en restant préoccupé par le bien-être des utilisateurs, OpenAI semble tarder à mettre en œuvre des changements significatifs. Étant donné la popularité fulgurante de ChatGPT depuis son lancement, on peut se demander pourquoi il a fallu autant de temps pour introduire des mises à jour en matière de sécurité.

FAQ

H4 : Quelles sont les nouvelles fonctionnalités ajoutées à ChatGPT ?

OpenAI a intégré des fonctionnalités visant à mieux gérer le bien-être des utilisateurs, telles que des rappels pour encourager des pauses et une assistance lors des moments difficiles.

H4 : Pourquoi les experts s’inquiètent-ils des impacts de ChatGPT ?

Les experts craignent que l’utilisation de ChatGPT puisse exacerber des problèmes de santé mentale, surtout chez des utilisateurs en détresse, en raison de ses interactions parfois inappropriées.

H4 : Comment OpenAI s’assure-t-il de l’efficacité de ses nouvelles mesures ?

La société collabore avec une équipe d’experts médicaux et des chercheurs en interaction homme-machine pour suivre et améliorer les comportements de ChatGPT en matière de réponses émotionnelles.

H4 : Y a-t-il déjà des retours d’utilisateurs sur ces changements ?

Oui, les avis d’utilisateurs sont partagés ; certains trouvent les nouvelles alertes utiles, tandis que d’autres les jugent intrusives et inutiles.

A lire :  AGIBOT de Chine : 10 000 Robots Humanoïdes Déployés, La Moitié Livrée en 3 Mois

H4 : Quelles autres mesures pourraient être envisagées pour protéger les utilisateurs ?

Les experts suggèrent d’améliorer la capacité du chatbot à détecter et répondre aux signaux de détresse de manière plus empathique et nuancée, ainsi que d’autres interventions de sécurité.