Technologie

« Des travailleurs sociaux alertent : des ‘hallucinations’ dans les transcriptions d’IA des témoignages d’enfants »

« Des travailleurs sociaux alertent : des 'hallucinations' dans les transcriptions d'IA des témoignages d'enfants »

Utilisation de l’intelligence artificielle dans les services sociaux

Des systèmes d’intelligence artificielle sont actuellement déployés pour enregistrer et résumer les échanges entre les travailleurs sociaux et les enfants au sein des conseils en Angleterre et en Écosse, comme le souligne un article du Guardian. Toutefois, plusieurs travailleurs sociaux ont signalé des problèmes, affirmant que certaines transcriptions générées par l’IA contiennent des “hallucinations”, c’est-à-dire des affirmations inventées, y compris des mentions de pensées suicidaires qui n’ont jamais été abordées.

Une étude menée par l’Ada Lovelace Institute pendant huit mois a révélé que certaines inexactitudes potentiellement nuisibles concernant les expériences des individus se retrouvaient dans les dossiers officiels de soins.

Que se passe-t-il ?

Le rapport révèle que plusieurs conseils, tels que ceux de Croydon, Redcar, et Cleveland, ont permis aux travailleurs sociaux d’accéder à des outils de transcription basés sur l’IA, tels que Magic Notes et Microsoft Copilot. Dans ses recherches, l’Ada Lovelace Institute a documenté des cas où un travailleur social a découvert que l’outil avait incorrectement indiqué des pensées suicidaires, alors que le client n’en avait pas du tout parlé.

A lire :  Révolution dans l'énergie nucléaire : une avancée historique grâce à une substance salée

Un autre travailleur a partagé son expérience, signalant que les notes générées par l’IA pouvaient mentionner des « doigts de poisson, des mouches ou des arbres » alors qu’un enfant était en train de décrire une dispute entre ses parents. Un collègue a tenté de reformuler ses notes avec un ton différent, mais l’IA a inclus « tous ces mots qui n’ont pas été prononcés ». L’Association britannique des travailleurs sociaux a souligné qu’il est de la responsabilité des travailleurs sociaux de vérifier minutieusement les notes pour déceler d’éventuelles erreurs, avec des signalements de mesures disciplinaires dans certains cas.

Pourquoi l’utilisation éthique de l’IA est-elle cruciale ?

Bien que l’IA soit utilisée comme un outil par les adultes dans ce contexte, son intégration dans l’univers des enfants a suscité des critiques de la part de ceux qui affirment qu’elle nuit à leur développement et « redéfinit » leur enfance. Les enfants qui interagissent avec des systèmes d’IA sans accompagnement personnalisé pourraient connaître des risques développementaux et émotionnels. Ainsi, lorsque l’IA est intégrée dans un cadre de services sociaux ou de soins de santé, les erreurs potentielles peuvent avoir des conséquences importantes sur la qualité des soins et la documentation pour ces enfants.

L’impact des erreurs de l’IA s’est également fait ressentir dans d’autres contextes sensibles. Par exemple, un rapport de police généré par une IA dans l’Utah contenait des allégations fausses, comme celle d’un agent ayant rencontré une grenouille; bien que cela puisse sembler anodin, de telles erreurs peuvent avoir des répercussions graves. Plus nous nous fions à ces outils sans supervision humaine, plus les erreurs susceptibles d’affecter l’avenir des enfants sont probables et influentes.

A lire :  Un produit 'd'urgence' fait polémique : un client s'oppose à son image

Quelles mesures sont prises concernant les outils d’IA dans le travail social ?

Les recherches indiquent que ces outils peuvent libérer du temps pour que les travailleurs sociaux se concentrent davantage sur la relation avec leurs clients. En matière de réglementation, l’Association britannique des travailleurs sociaux appelle les régulateurs à fournir des directives claires sur l’utilisation des outils d’IA.

Seb Barker, cofondateur de Beam, qui propose Magic Notes, a déclaré que l’outil produit un premier brouillon et vérifie automatiquement les hallucinations, sous-entendant ainsi que les travailleurs sociaux doivent rédiger une version finale après que l’IA a généré le premier jet.

Les individus qui souhaitent soutenir l’usage éthique de l’IA peuvent s’informer sur comment investir dans des initiatives écologiques et comprendre comment l’excès d’utilisation de l’IA sans une supervision humaine adéquate peut exacerber les problèmes climatiques.

FAQ

Quelles sont les conséquences des erreurs d’IA dans le travail social ?

Les erreurs d’IA peuvent entraîner des malentendus et potentiellement nuire à la santé mentale et à la sécurité des enfants concernés.

Comment les travailleurs sociaux peuvent-ils prévenir les erreurs dans les transcriptions d’IA ?

Il est essentiel qu’ils vérifient et corrigent manuellement les notes générées avant de les intégrer dans les dossiers officiels.

L’IA peut-elle remplacer les travailleurs sociaux ?

Non, l’IA devrait être considérée comme un outil d’assistance et ne doit pas remplacer le jugement humain et l’interaction personnelle nécessaires dans le travail social.

Quels types d’outils d’IA sont actuellement utilisés dans les services sociaux ?

Les outils comme Magic Notes et Microsoft Copilot sont couramment cités pour faciliter la transcription et l’organisation des informations.

A lire :  Une entreprise de véhicules électriques franchit le cap du million de changements de batterie : les États-Unis en retrait dans certaines technologies

Existe-t-il des régulations spécifiques pour l’utilisation de l’IA dans les services sociaux ?

Actuellement, il y a un appel à des régulations plus claires, mais les pratiques varient grandement selon les conseils et les régions.