Appel à la Régulation des IA
Megan Garcia, une mère de Floride, a perdu son fils de 14 ans, Sewell Setzer III, qui s’est suicidé après avoir passé beaucoup de temps avec des chatbots d’intelligence artificielle non régulés. Elle demande maintenant aux législateurs de modifier une disposition controversée du « Big, Beautiful Bill » de l’administration Trump, qui empêche les États de mettre en place des régulations sur l’IA pendant les dix prochaines années.
Un Appel aux Législateurs
Dans une lettre adressée à la sénatrice de Floride, Ashley Moody, Garcia souligne que cette disposition nuira à des millions de familles américaines. Selon elle, l’absence de régulation laisse les entreprises d’IA sans véritable responsabilité, alors que l’industrie se régule déjà de manière insuffisante.
Une Poursuite pour Négligence
Garcia a intenté une action en justice en octobre 2024 contre Character.AI, une startup de chatbot, ainsi que ses cofondateurs et le géant technologique Google, qui a fortement soutenu la société. Elle accuse ces entités de négligence, affirmant que les interactions “romantiques” et explicites entre Setzer et le chatbot ont conduit à une détérioration de sa santé mentale et, en fin de compte, à son suicide.
Le Rôle des Chatbots
Avant de mettre fin à ses jours, Setzer avait exprimé à un chatbot ses désirs de “rentrer à la maison” avec lui, ce qui montre l’étendue de son attachement à la technologie. Garcia décrit les dangers que représentent ces technologies non régulées pour les familles américaines. Elle se bat pour que d’autres parents ne subissent pas le même sort qu’elle, convaincue de la nécessité d’une législation pour protéger les enfants.
La Disposition Contestée
La disposition contestée interdit les régulations au niveau des États pour l’IA pendant une période de dix ans, signifiant qu’aucune loi sur la sécurité des consommateurs ne pourra être adoptée localement. Même si les citoyens d’un État souhaitent des régulations, ils ne pourront pas agir. Cette situation préoccupe de nombreux groupes, allant des syndicats aux associations de protection de l’enfance, qui constatent que la plupart des Américains désapprouvent cette mesure.
Le Débat sur la Régulation
Les partisans de cette suspension des régulations avancent que celles-ci freinent l’innovation, et certains argumentent même sur la nécessité de garantir la sécurité nationale face à des pays comme la Chine. Cependant, alors que des produits d’IA non régulés continuent de se répandre, des dangers réels émergent, comme les effets délétères sur la santé mentale des utilisateurs, menant à des conséquences tragiques.
Les Risques concrets
Caractérisé par une productivité alarmante, le secteur des chatbots comme Character.AI attire les jeunes utilisateurs, mais se trouve également entouré de controverses concernant des contenus dangereux et inappropriés. Par exemple, la plateforme a permis la création de chatbots basés sur des tireurs d’école, ce qui soulève des questions éthiques sur sa modération.
Appels à la Responsabilité
Garcia et ses avocats affirment que Character.AI savait que ses produits pouvaient poser un risque pour les jeunes, mais ont choisi d’ignorer ces avertissements. Réclamant des safeguards plus stricts et une meilleure responsabilité des entreprises, elle estime que les législations en vigueur doivent garantir la sécurité des utilisateurs tout en permettant l’innovation.
Pourquoi il est Urgent d’agir
Il est crucial d’élaborer des normes de sécurité spécifiques à l’IA, car l’absence de telles régulations pourrait avoir des conséquences désastreuses. Garcia est déterminée à veiller à ce que les technologies soient sûres pour les enfants, arguant que les progrès techniques ne doivent pas se faire au détriment de la sécurité des utilisateurs.
FAQ
Qu’est-ce que Character.AI ?
Character.AI est une startup qui développe des chatbots interactifs, permettant aux utilisateurs de communiquer de manière émotive et réaliste. Elle a récolté beaucoup d’intérêt pour sa capacité à imiter des interactions humaines.
Quels sont les dangers associés aux chatbots pour les jeunes?
Les chatbots peuvent promouvoir des comportements néfastes et fournir des contenus inappropriés, conduisant à des problèmes de santé mentale, comme l’isolement social ou des délires.
Existe-t-il des lois sur l’IA aux États-Unis ?
Actuellement, il n’existe pas de normes spécifiques qui régissent la sécurité des produits d’IA au niveau fédéral ou étatique, laissant le champ libre aux entreprises pour définir leurs propres standards.
Comment les parents peuvent-ils protéger leurs enfants en ligne ?
Il est essentiel que les parents surveillent l’utilisation des technologies par leurs enfants, discutent des dangers potentiels et mettent en place des règles sur l’utilisation des applications et des plateformes en ligne.
Quelles mesures de sécurité devraient être mises en place pour les produits d’IA ?
Des standards stricts pour la sécurité des utilisateurs, des vérifications d’âge robustes et des systèmes de modération efficace sont nécessaires pour garantir que les produits d’IA ne nuisent pas aux jeunes utilisateurs.
