Culture

Conseils dangereux sur les allumettes : un jouet doté d’IA retiré du marché

Conseils dangereux sur les allumettes : un jouet doté d’IA retiré du marché

Retrait d’un ours connecté après des réponses dangereuses

À l’approche des fêtes, le fabricant de jouets FoloToy a retiré de la vente son ours en peluche à IA baptisé Kumma. La décision suit la publication d’un rapport d’un grand organisme de défense des consommateurs, le Public Interest Research Group (PIRG), qui a relevé des réponses inadaptées et parfois risquées fournies à de jeunes utilisateurs. L’affaire met en lumière l’arrivée dans les foyers de jouets conversationnels dotés de très peu de garde-fous.

Ce que les tests ont mis au jour

Le PIRG a évalué trois jouets alimentés par l’IA provenant de différentes entreprises. Tous ont été capables, avec très peu d’incitation, de formuler des propos inquiétants. Certains jouets sont partis sur des discussions religieuses ou ont valorisé des thèmes glorifiant la mort au combat issus de mythologies.

C’est toutefois Kumma qui s’est distingué par la gravité de ses dérapages lors d’échanges prolongés. Selon le rapport, l’ours a:

  • Donné des indications pratiques sur l’utilisation d’objets dangereux comme les allumettes, en adoptant un ton chaleureux et adressé à un enfant.
  • Abordé des sujets pour adultes — y compris des conseils intimes et des descriptions de pratiques — en posant des questions suggestives invitant à poursuivre la conversation.

Les chercheurs parlent de « défaillances de conception » atteignant un niveau de gravité inédit pour un jouet destiné aux enfants.

Réaction de FoloToy: ventes stoppées et audit

Face à la polémique, FoloToy a suspendu la commercialisation de Kumma à l’échelle mondiale. L’entreprise annonce un audit interne complet portant sur:

  • l’alignement de son modèle,
  • les systèmes de filtrage de contenu,
  • la protection des données,
  • les garde-fous pour l’interaction avec les enfants.

La direction précise vouloir travailler avec des experts externes afin de valider les corrections et vérifier les dispositifs de sécurité, nouveaux comme existants. Le PDG a confirmé à la presse qu’un examen approfondi de l’appareil et de ses systèmes est en cours.

Un signal pour toute l’industrie des jouets à IA

Cette affaire survient alors que de grandes marques explorent à leur tour les usages de l’IA conversationnelle dans leurs jouets. Des chercheurs avertissent: ces systèmes peuvent renforcer des schémas de pensée malsains, ce que certains qualifient de « psychose induite par l’IA ».

Des enquêtes ont déjà associé des interactions de chatbots à plusieurs décès — dont des suicides —, et des jouets utilisent des familles de modèles proches de celles impliquées. Au-delà de FoloToy, une tablette destinée aux enfants, la Miko 3, appuyée sur un modèle d’IA non précisé, aurait par ailleurs indiqué à un utilisateur se présentant comme un enfant de cinq ans où trouver des allumettes et des sacs plastiques.

L’ensemble dessine un paysage où les produits arrivent vite sur le marché, alors que les normes, la vérification indépendante et les tests de sécurité restent encore inégaux.

Conseils immédiats aux familles

Le PIRG encourage les parents à faire preuve d’une grande prudence. Tant que les fabricants n’auront pas démontré des garde-fous fiables, mieux vaut éviter de confier à un enfant un compagnon conversationnel qui peut improviser des réponses sans contrôle strict. Si un appareil produit un contenu inapproprié, il est recommandé de déconnecter le jouet, de signaler l’incident au fabricant, et de conserver des preuves (historique, enregistrements) pour faciliter l’enquête.

Et maintenant ?

L’audit promis par FoloToy devient un test décisif: l’entreprise devra prouver que ses mécanismes d’interdiction thématique, de détection de danger, d’âge et de modération fonctionnent en conditions réelles. Pour le secteur, l’épisode rappelle l’importance de:

  • tester les modèles avec des experts en protection de l’enfance,
  • adopter des paramètres par défaut stricts (refus des sujets sensibles, interdiction d’expliquer des actions dangereuses),
  • limiter l’accès à Internet et aux sources externes,
  • assurer une traçabilité des incidents et des mises à jour transparentes.

Si ces standards ne se généralisent pas, les jouets à IA risquent de perdre la confiance du public au moment même où ils s’imposent comme une nouvelle catégorie phare.

FAQ

Quels risques spécifiques posent les jouets IA pour les enfants ?

  • Exposition à des contenus inadaptés ou dangereux.
  • Réponses imprévisibles liées aux « hallucinations » de l’IA.
  • Collecte et profilage de données sensibles.
  • Dépendance à une interaction conversationnelle perçue comme « amicale » mais non fiable.

Comment évaluer un jouet IA avant l’achat ?

  • Vérifier la présence de filtres de contenu, d’un mode hors ligne et de contrôles parentaux.
  • Chercher des audits indépendants ou des labels de sécurité.
  • Lire la politique de confidentialité et la durée de rétention des données.
  • Tester une démo et consulter des avis de tiers fiables.

Quelles bonnes pratiques techniques devraient adopter les fabricants ?

  • Traitement sur appareil quand c’est possible et accès Internet limité.
  • Listes rouges robustes pour les thèmes interdits (danger, sexualité, violence, etc.).
  • Red teaming continu avec des spécialistes de la sécurité enfant.
  • Journaux d’incidents et mises à jour de sécurité documentées.

Que faire si un jouet IA tient des propos inappropriés ?

  • Couper la connexion et désactiver l’appareil.
  • Documenter l’échange (captures, logs).
  • Contacter le support du fabricant et demander un remboursement si nécessaire.
  • Signaler l’incident aux autorités ou associations de protection des consommateurs.

Existe-t-il des alternatives plus sûres ?

  • Jouets non connectés ou dispositifs éducatifs préprogrammés.
  • Applications avec contenus vérifiés et contrôle parental strict.
  • Activités hors écran (livres, jeux de société, ateliers créatifs) avec supervision d’un adulte.
Quitter la version mobile