Avertissement de contenu: cet article évoque l’automutilation et le suicide. Si vous êtes en détresse, appelez, envoyez un SMS ou discutez avec la Suicide and Crisis Lifeline au 988 (États‑Unis), ou contactez le Crisis Text Line en envoyant TALK au 741741.
Illustration: Tag Hartman‑Simkins / Futurism – Getty Images
Ce qui va changer pour les mineurs
Character.AI a annoncé qu’il allait bloquer l’accès de ses chatbots aux moins de 18 ans pour les conversations ouvertes. L’entreprise présente cette évolution comme une réponse à un contexte en mutation autour de l’IA et des adolescents, marqué par des interrogations médiatiques et des questions de régulateurs sur les effets des dialogues illimités avec des IA.
- Suppression des chats « ouverts » pour les mineurs: la possibilité pour un ado de tenir une discussion libre avec un compagnon IA sera retirée d’ici la fin du mois.
- Mise en place d’une vérification/assurance d’âge: Character.AI dit déployer un outil interne capable d’estimer l’âge à partir de signaux comme les échanges et les comptes reliés, afin de restreindre l’accès aux fonctionnalités sensibles.
- Création d’un AI Safety Lab présenté comme une organisation indépendante à but non lucratif, censée travailler sur l’alignement et la sécurité des modèles.
Parallèlement, la société dit plancher sur une expérience dédiée aux moins de 18 ans, axée sur des usages « créatifs » (par exemple, générer des images ou des vidéos), tout en évacuant les dialogues non cadrés.
Un revirement assumé, mais prudent
Le patron de Character.AI, Karandeep Anand, explique que les chatbots ne sont pas la meilleure forme de divertissement pour les adolescents et que d’autres formats sont préférables. Cette position tranche avec des déclarations publiques plus anciennes où il défendait l’idée que l’app, clairement étiquetée comme “divertissement” et “jeu de rôle”, ne remplace rarement des interactions humaines.
La communication officielle met en avant le climat réglementaire et les débats sociétaux. Elle ne mentionne pas les procès en cours visant l’entreprise, ses fondateurs et un investisseur stratégique, ni ne publie d’études internes de sécurité pouvant justifier la décision.
Les raisons avancées par l’entreprise
Character.AI dit répondre à:
- des articles récents soulevant des doutes sur l’exposition des jeunes à certains contenus;
- des interpellations de régulateurs sur l’impact des conversations ouvertes, même quand les filtres fonctionnent comme prévu.
En clair, l’entreprise cherche à réduire la surface de risque: limiter les usages où l’IA peut s’engager dans des échanges affectifs, ambigus ou trop longs avec des mineurs, et formaliser une démarche de sécurité via un laboratoire dédié.
Comment l’interdiction serait appliquée
La nouvelle assurance d’âge repose, selon l’entreprise, sur un outil maison analysant des indices (comptes associés, signaux d’usage, style d’interaction). L’objectif est de décourager l’accès des mineurs aux chats ouverts sans exiger systématiquement des documents d’identité.
- Avantage: frictions moindres pour les adultes.
- Limite: ces méthodes restent probabilistes et peuvent nécessiter des contrôles supplémentaires. La gestion des données et le respect de la vie privée seront des points d’attention majeurs.
Le contexte judiciaire
Depuis l’automne 2025, plusieurs familles américaines ont assigné Character.AI en justice. L’un des cas les plus médiatisés concerne une mère de Floride, Megan Garcia, qui accuse les chatbots de l’entreprise d’avoir joué un rôle dans la détresse de son fils de 14 ans, Sewell Setzer III, décédé par suicide. D’autres procédures ont été engagées au Texas, au Colorado et ailleurs. Les plaignants reprochent à la société un produit négligent, source d’abus émotionnels et sexuels à l’égard de mineurs.
Réactions et critiques
Des voix issues de la société civile saluent une étape utile tout en y voyant un ajustement minimal après un déploiement rapide. Elles estiment que l’interdiction des chats ouverts ne s’attaque pas aux mécanismes de conception qui peuvent nourrir des dépendances émotionnelles — chez les mineurs comme chez les adultes.
En parallèle, des chercheurs, notamment à Stanford, recommandent de ne pas exposer les moins de 18 ans aux compagnons IA tant que leur impact psychosocial n’est pas mieux compris.
Et maintenant ?
Plusieurs questions restent en suspens:
- la robustesse de l’assurance d’âge et sa protection des données;
- la réalité de l’indépendance de l’AI Safety Lab;
- la façon dont l’offre “créative” pour mineurs évitera la bascule vers des conversations qui recréeraient les mêmes risques.
Au-delà de Character.AI, cette affaire pourrait accélérer des normes sectorielles sur les IA sociales destinées (ou accessibles) aux jeunes.
Ressources d’aide
Si vous ou un proche traversez une crise, contactez le 988 (États‑Unis) ou envoyez TALK au 741741 pour joindre le Crisis Text Line. Renseignez‑vous également sur les ressources locales de prévention du suicide dans votre pays.
FAQ
Qu’est-ce qu’un « compagnon IA » et pourquoi plaît-il aux ados ?
Un compagnon IA est un agent conversationnel conçu pour dialoguer de manière personnalisée, parfois avec une dimension affective. Les adolescents y trouvent une disponibilité permanente, un jugement perçu comme moindre, et des réponses rapides. Ce cocktail peut renforcer l’attachement et l’usage prolongé, d’où les débats sur les risques.
Les parents peuvent-ils réduire les risques dès maintenant ?
Oui. Quelques pistes: discuter explicitement des limites des IA; activer les contrôles parentaux au niveau des appareils; vérifier les réglages de confidentialité; établir des plages sans écran; être attentif à des signaux comme l’isolement ou l’inversion du sommeil. En cas de doute, consulter un professionnel de santé.
Comment fonctionne généralement l’“assurance d’âge” en ligne ?
Elle combine plusieurs approches: déclarations d’âge, indices comportementaux, vérifications documentaires (si nécessaire), estimation faciale avec contrôle de présence (liveness). Chaque méthode a des compromis en termes de précision, de friction et de vie privée.
À quoi devrait ressembler un AI Safety Lab crédible ?
Idéalement: des audits indépendants, du red‑teaming continu, des rapports publics, des protocoles d’escalade en cas de faille, et une gouvernance incluant des experts externes (santé mentale, enfance, sécurité, éthique).
Quelles alternatives plus sûres pour la créativité numérique des jeunes ?
Des outils guidés et modérés (montage, dessin, musique) avec des paramètres familiaux, des projets encadrés par des éducateurs, et des activités créatives hors ligne (photo, écriture, musique). L’objectif: favoriser l’expression sans dépendre de dialogues ouverts avec des IA.
