Intelligence Artificielle

Les sénateurs exigent des rapports de sécurité sur les applications de chatbot IA alors que la controverse s’intensifie.

Les sénateurs exigent des rapports de sécurité sur les applications de chatbot IA alors que la controverse s'intensifie.

Les Sénateurs en Mission pour la Sécurité des Applications d’IA

Deux sénateurs américains ont adressé une lettre à plusieurs entreprises d’applications de compagnons d’IA afin d’obtenir des informations sur leurs pratiques de sécurité. Ils s’intéressent notamment aux évaluations internes de sécurité et aux délais d’implantation de mesures de précaution. Ce sujet a été rapporté par CNN récemment.

Contexte des Procédures Judiciaires

Cette initiative fait suite à deux procès importants liés à la protection des enfants, lancés contre Character.AI, une start-up de chatbot associée à Google. Trois familles accusent cette entreprise d’avoir permis des abus émotionnels et sexuels sur des utilisateurs mineurs, entraînant des souffrances mentales sévères et même des décès. Les fondateurs de Character.AI, Noam Shazeer et Daniel de Freitas, sont également mentionnés dans ces affaires judiciaires.

Appel à la Précaution

La lettre, rédigée par les sénateurs Alex Padilla de Californie et Peter Welch du Vermont, extrait des accusations contre Character.AI, soulignant particulièrement le risque que ces applications présentent pour les jeunes. Elle mentionne le cas de Sewell Setzer III, un utilisateur de 14 ans qui s’est donné la mort après des interactions longues et intenses avec les chatbots de la plateforme.

A lire :  Ancien de Google : Une Entreprise Possède une Version Avatar de Vous-même

Inquiétudes sur la Santé Mentale

Dans cette communication, il est déclaré : « Nous exprimons nos préoccupations concernant les risques pour la santé mentale et la sécurité des jeunes utilisateurs d’applications de chatbot. » La mort de Setzer, rapportée par The New York Times, a attiré l’attention médiatique suite à une plainte déposée par sa mère, impliquant d’autres familles ayant connu des expériences similaires avec ces technologies.

Réactions Législatives

Cette situation attire maintenant l’attention des législateurs de Washington. Les sénateurs soulignent que des rapports récents évoquent des cas d’automutilation liés à cette catégorie d’applications, et ils demandent aux entreprises de se manifester par écrit pour expliquer les mesures mises en place pour protéger les mineurs.

Enquête sur les Pratiques de Sécurité

Dans un communiqué, il est précisé que la lettre a été envoyée à Character.AI, Chai Research Corp et Luka, le créateur de Replika. Replika a récemment été confrontée à une plainte de la Commission fédérale du commerce concernant des pratiques de marketing trompeuses. L’entreprise est également accusée d’avoir encouragé des comportements problématiques chez ses utilisateurs.

Nature des Interactions Utilisateur-Bot

Ces trois entreprises offrent des chatbots immersifs, souvent conçus pour incarner des personnalités précises. Certains utilisateurs engagent des rôles fictifs étendus avec ces bots, tandis que d’autres développent des relations émotionnelles, parfois de nature romantique ou sexuelle.

Risques Encouragés par les Appareils d’IA

Les experts mettent en garde contre les dangers potentiels de telles applications. Les caractéristiques conçues pour rendre ces interactions attrayantes, comme la flatterie et une disponibilité constante, peuvent mettre en danger les utilisateurs vulnérables. Les sénateurs mentionnent que l’« attention artificielle » offerte par ces bots peut créer une confiance mal placée, menant les utilisateurs à partager des informations sensibles.

A lire :  Enseignants de Lycée : Simplification des Corrections avec ChatGPT

Informations Demandées par les Sénateurs

Les élus souhaitent que les entreprises fournissent des détails sur les mesures de sécurité en place, ainsi qu’un calendrier de leur mise en œuvre. Ils veulent également connaître les données utilisées pour former leurs modèles d’IA et comment cela peut influencer le risque de rencontrer des thèmes inappropriés.

Silence de l’Industrie

Tant Chai que Luka n’ont pas répondu à la demande de commentaire formulée par CNN. En revanche, Character.AI a déclaré prendre les préoccupations des sénateurs très au sérieux et qu’ils sont déjà en contact avec leurs bureaux.

Situation actuelle et Perspectives

Actuellement, le secteur des applications de compagnons d’IA fonctionne dans un cadre légal peu régulé, et cette lettre marque une des premières étapes législatives pour explorer les pratiques de sécurité de ces entreprises. Compte tenu des préoccupations récurrentes concernant la sécurité des utilisateurs mineurs, il sera crucial de surveiller les prochains développements.

FAQ

H4: Qu’est-ce que Character.AI ?

Character.AI est une start-up qui développe des chatbots basés sur l’IA, offrant des interactions sociales et émotionnelles.

H4: Quel est le risque des applications de chatbot pour les mineurs ?

Les experts s’inquiètent du développement de relations émotionnelles malsaines et de la divulgation d’informations sensibles, pouvant entraîner des comportements auto-destructeurs.

H4: Pourquoi les sénateurs s’intéressent-ils à ces entreprises maintenant ?

Les préoccupations récentes concernant la santé mentale des jeunes utilisateurs, notamment des cas tragiques de suicide, ont entraîné une attention accrue des responsables politiques.

H4: Que sont les mesures de sécurité étudiées par les législateurs ?

Les sénateurs examinent les évaluations internes de sécurité, les protections existantes et la manière dont les données sont utilisées pour former les modèles d’IA.

A lire :  Les Leaders Technologiques Chinois Ajustent leurs Ambitions dans la Course Mondiale à l'IA

H4: Quelle est la réaction des entreprises face aux plaintes ?

Character.AI a déclaré prendre ces préoccupations au sérieux et a engagé des discussions avec les sénateurs, tandis que d’autres entreprises sont restées silencieuses.