Intelligence Artificielle

Un Travailleur Social en Difficulté pour Avoir Utilisé ChatGPT dans un Rapport Étrange sur une Poupée Sexuelle

Un Travailleur Social en Difficulté pour Avoir Utilisé ChatGPT dans un Rapport Étrange sur une Poupée Sexuelle

Utilisation problématique de ChatGPT par un travailleur social en Australie

Un employé des services pour enfants en Australie a récemment suscité une controverse en utilisant ChatGPT pour rédiger un rapport sensible sur un enfant. Cette utilisation a conduit à l’interdiction de cette technologie dans son agence.

Un rapport controversé

Selon un article de The Guardian, le Département des familles, de l’équité et du logement (DFFH) de Victoria se retrouve au cœur d’une tempête médiatique après qu’un de ses agents ait soumis un document préparé avec l’aide du chatbot d’OpenAI. Le rapport concernait un enfant dont les parents faisaient face à des accusations de crimes sexuels non liés. Il a été révélé que le père de l’enfant avait eu des comportements inappropriés avec une poupée. Étonnamment, dans le rapport, l’utilisation de la poupée a été décrite de manière positive, ce qui a choqué les responsables.

Une description troublante

Le rapport a mentionné que la poupée, utilisée par le père pour des motifs sexuels, était considérée comme un « atout » dans les efforts des parents pour répondre aux besoins de développement de l’enfant grâce à des « jouets adaptés à son âge ». Cette tournure de phrase a été soulignée par l’Office du Commissaire à l’information de Victoria (OVIC), qui a également noté que le rapport contenait une structure de phrases “inappropriée” et un choix de mots qui ne respectaient pas les directives de l’agence. À la suite d’une enquête, il a été déterminé que l’employé avait probablement recours à ChatGPT pour rédiger ce rapport.

A lire :  CNET Utilisait Discrètement l'IA dans ses Articles sans Le Mentionner, Selon des Employés.

Une utilisation répandue

Lorsque l’employé a été interrogé, il a reconnu avoir utilisé ChatGPT pour “gagner du temps et présenter un travail plus professionnel”, tout en précisant qu’il n’avait pas entré d’informations personnelles sur les clients. Cependant, l’enquête suivante a révélé, sans nommer l’individu, que cette personne aurait potentiellement utilisé l’outil pour rédiger plus de 100 documents liés à la protection de l’enfance. Bien que l’employé ait nié avoir utilisé des informations sensibles, d’autres collègues ont affirmé qu’il l’avait fait.

Cette affaire n’est qu’un exemple parmi d’autres. Entre juillet et décembre 2023, près de 900 employés du DFFH auraient visité le site de ChatGPT. Face à cette situation, l’OVIC a ordonné à l’agence de prohiber l’usage du logiciel par ses employés, même si l’interdiction n’était pas appliquée à tous les utilisateurs dans l’État.

Une décision réfléchie

La déclaration de l’OVIC précise que certains usages de l’intelligence artificielle peuvent comporter moins de risques, mais souligne que la protection de l’enfance exige des « normes de soin très élevées ». Ce cas semble être le premier où quelqu’un a été puni pour avoir utilisé ChatGPT dans le cadre du travail social, et il est probable que d’autres suivront.

FAQ

Qu’est-ce que ChatGPT ?

ChatGPT est un chatbot développé par OpenAI qui utilise l’intelligence artificielle pour générer du texte à partir de prompts donnés.

Quelles sont les conséquences de l’utilisation de ChatGPT dans le secteur social ?

L’utilisation inappropriée de ChatGPT dans le secteur social peut mener à des rapports erronés, des atteintes à la confidentialité des données et des sanctions pour les employés.

A lire :  24 Outils IA Gratuits Qui Génèrent des Résultats Concrets en 2026

Pourquoi l’utilisation de ChatGPT est-elle problématique dans le travail social ?

L’utilisation de ChatGPT est problématique car elle peut mener à des erreurs dans des situations sensibles, nuisant ainsi au bien-être des enfants et des familles.

D’autres agences interdisent-elles ChatGPT ?

Bien que ce cas soit un exemple marquant, d’autres agences pourraient également envisager des restrictions similaires suite à des préoccupations sur la sécurité et l’intégrité des informations.

Quels sont les enjeux éthiques liés à l’utilisation d’intelligences artificielles dans le social ?

Les enjeux éthiques incluent la protection de la vie privée, la précision des informations, et la responsabilité des travailleurs sociaux dans la prise de décisions concernant des cas sensibles.