Intelligence Artificielle

Un Ingénieur de Microsoft Dégoûté par les Images Générées par Son IA.

Un Ingénieur de Microsoft Dégoûté par les Images Générées par Son IA.

Une alerte inquiétante sur l’IA de Microsoft

Un ingénieur de Microsoft a récemment exprimé de vives inquiétudes concernant le générateur d’images Copilot Designer, anciennement connu sous le nom de Bing Image Creator. Dans une lettre adressée à la Federal Trade Commission (FTC) et au conseil d’administration de l’entreprise, il a averti que cet outil produisait des images particulièrement troublantes. Selon un article de CNBC, l’ingénieur a remarqué que les dispositifs de protection de l’IA faillaient, permettant ainsi la création d’illustrations violentes et mettant en avant des comportements illicites chez les jeunes.

Shane Jones, l’ingénieur en question, a tenté de tirer la sonnette d’alarme. Malgré ses tentatives, Microsoft n’a pas pris de mesures pour enquêter sur ses préoccupations.

Une expérience choquante

Les images générées par ce logiciel, observées par CNBC, sont alarmantes. Par exemple, une simple recherche avec le terme “pro-choix” a mené à des illustrations de violence, comprenant des créatures démoniaques et des bébés malformés. Le rapport indique également que Copilot produisait des scènes violentes incluant des adolescents armés, ainsi que des images sexualisées de femmes.

Jones a d’abord alerté ses responsables en décembre sur ces problèmes graves. Après avoir échoué à les convaincre de traiter la situation en interne, il a décidé de s’adresser à des fonctionnaires gouvernementaux. Dans une lettre destinée à Lina Khan, présidente de la FTC, il a récemment partagé ses préoccupations sur LinkedIn.

Dans cette lettre, il explique : « Au cours des trois derniers mois, j’ai maintes fois demandé à Microsoft de retirer le Copilot Designer de l’accès public jusqu’à ce que de meilleures protections soient mises en place. » Il exhorte également l’entreprise à reconsidérer la classification de l’application comme “E pour tous”, arguant qu’elle n’est pas sécurisée pour les enfants.

Un problème de signalement

Le problème soulevé par Jones ne réside pas uniquement dans la nature perturbante des images produites. En tant qu’employé inquiet, il souligne qu’il n’existe pas de voie claire pour signaler la diffusion de ces contenus néfastes. Il déplore qu’il n’y ait pas de numéro à composer ou de système pour escalader le problème afin qu’il soit traité sans délai, ce qui soulève de sérieuses inquiétudes.

Avec l’absence de régulations strictes pour encadrer les produits des entreprises d’IA, cette situation est d’autant plus alarmante.

Réponse de Microsoft

À la suite de la publication initiale de cet article, un porte-parole de Microsoft a fait une déclaration. Celui-ci a assuré que l’entreprise est engagée à traiter les préoccupations de ses employés conformément aux politiques de l’entreprise. Microsoft a évoqué des outils de retour d’expérience intégrés et des canaux de signalement internes pour enquêter sur les problèmes et les résoudre.

De plus, la société a organisé des réunions avec des responsables de produit et son bureau de l’IA responsable afin d’examiner ces préoccupations et d’améliorer les mesures de sécurité.

FAQ

Quelles mesures Microsoft a-t-elle mises en place pour résoudre les problèmes soulevés ?

Microsoft a développé des outils de retour d’information intégrés et encourage les employés à les utiliser pour signaler toute préoccupation.

Quel impact cette situation pourrait-elle avoir sur les utilisateurs de l’IA ?

Si les problèmes soulevés ne sont pas traités, les utilisateurs, en particulier les enfants, pourraient être exposés à des contenus inappropriés ou dangereux.

Y a-t-il des agences de régulation surveillant l’IA ?

Actuellement, il existe peu de régulations sur l’IA, ce qui rend difficile la supervision des produits de ces technologies.

Comment les employés de Microsoft peuvent-ils signaler des préoccupations ?

Les employés sont invités à utiliser les outils de retour d’expérience et les canaux de signalement internes pour faire remonter leurs inquiétudes.

Qu’est-ce que cela signifie pour le futur de la technologie AI ?

Cette situation souligne la nécessité d’un cadre réglementaire plus strict pour les technologies d’IA, afin d’assurer un environnement sûr pour tous les utilisateurs.

Quitter la version mobile