OpenAI a récemment suscité des réactions vives suite à la décision de mettre fin au modèle GPT-4o de ChatGPT, qui était perçu par certains utilisateurs comme étant particulièrement flirtatious, émotionnellement sensible et semblable à un compagnon.
Contexte de la décision
À la fin de janvier, OpenAI a annoncé qu’elle retirerait le modèle GPT-4o (ainsi que d’autres modèles plus anciens) de ChatGPT le 13 février, soit la veille de la Saint-Valentin. Cette décision a été présentée comme une démarche visant à garder ChatGPT à jour, bien qu’OpenAI se soit engagé à continuer de travailler sur la personnalité et la créativité des futurs modèles tout en minimisant les réponses jugées trop cautious.
Des utilisateurs ont fait part de leur tristesse suite à ce changement. Un article du Guardian a relaté les expériences de certains, dont une personne qui a avoué avoir beaucoup pleuré en apprenant que son compagnon IA basé sur GPT-4o allait disparaître.
Des communautés en ligne, comme le subreddit r/MyBoyfriendIsAI (qui compte environ 48 000 membres) et divers groupes sur Discord, sont devenues des refuges pour ceux qui estiment que GPT-4o avait une chaleur et une vitalité supérieures aux modèles récents. De nombreux utilisateurs ont tenté de transférer les souvenirs de leur compagnon vers d’autres outils, mais ils signalent que l’expérience n’est pas la même.
Le Guardian a également rapporté une recherche menée par un chercheur indépendant en IA, indiquant que plusieurs utilisateurs s’appuyaient sur GPT-4o principalement pour bénéficier d’une compagnie, et que 64 % des personnes interrogées s’attendaient à un impact significatif ou grave sur leur santé mentale suite à ce changement.
Les préoccupations soulevées
Cette situation met en lumière une tension croissante : les entreprises technologiques peuvent facilement commercialiser des relations de compagnonnage, puis les modifier ou les supprimer à tout moment, même pour des clients payants. Cela soulève des questions sur la dépendance émotionnelle et les risques potentiels associés à l’utilisation de chatbots qui cherchent à plaire aux utilisateurs.
Un autre aspect souvent négligé concerne l’impact environnemental. Les outils d’IA nécessitent des centres de données qui consomment une quantité massive d’énergie. En 2024, ces centres ont utilisé environ 415 térawattheures d’électricité, un chiffre équivalent à la consommation annuelle d’un pays de taille moyenne, et cette demande ne fait qu’augmenter.
Réponses et solutions envisagées
Face à cette situation, certains utilisateurs tentent de transférer la mémoire et la personnalité de leurs compagnons vers d’autres outils d’IA, comme Claude d’Anthropic, bien que de nombreux utilisateurs estiment que l’expérience n’est pas comparable.
OpenAI soutient que les nouveaux modèles bénéficient de mesures de sécurité renforcées et qu’ils s’efforcent d’améliorer la personnalité et la créativité de ces derniers, tout en réduisant les réponses perçues comme trop cautionneuses ou moralisatrices, qui peuvent agacer les utilisateurs.
Sur le plan réglementaire, les autorités prennent de plus en plus au sérieux les enjeux liés à la compagnie que peuvent offrir les IA. En 2025, la Federal Trade Commission a ouvert une enquête sur les chatbots agissant comme compagnons, soulevant des interrogations sur l’évaluation des risques de dépendance émotionnelle, notamment pour les jeunes utilisateurs.
Concernant l’impact environnemental, des efforts sont en cours pour que les outils d’IA soient moins ressources intensifs, via une meilleure efficacité énergétique des puces, une réduction des besoins en refroidissement à fort usage en eau, et en alimentant les centres de données avec une énergie plus propre.
FAQ
Pourquoi GPT-4o était-il populaire auprès des utilisateurs ?
Le modèle GPT-4o était apprécié pour sa capacité à établir des interactions plus émouvantes et chaleureuses, ce qui a conduit à des liens significatifs avec ses utilisateurs.
Quelles sont les principales critiques concernant les nouveaux modèles de ChatGPT ?
Les critiques portent principalement sur le fait que les nouvelles versions semblent plus rigides et moins réceptives émotionnellement, ce qui peut nuire à l’expérience utilisateur.
Quelles mesures prennent les entreprises pour réduire l’impact environnemental des IA ?
Les entreprises cherchent à améliorer l’efficacité énergétique de leurs infrastructures et à investir dans des sources d’énergie renouvelables pour leurs centres de données.
Quelles sont les implications de cette dépendance émotionnelle pour les utilisateurs ?
Une dépendance accrue aux chatbots comme compagnons peut entraîner des problèmes de santé mentale si ces outils disparaissent ou ne peuvent plus être utilisés.
Comment les régulateurs envisagent-ils de protéger les utilisateurs des chatbots ?
Les régulateurs examinent actuellement les impacts potentiels des chatbots sur la santé mentale, en particulier pour les jeunes, afin d’assurer un cadre de protection adéquat.
