Intelligence Artificielle

ChatGPT a Dévié : Parlant en Voix Étrangères Sans Consentement

ChatGPT a Dévié : Parlant en Voix Étrangères Sans Consentement

Révélations sur l’Intelligence Artificielle

Récemment, OpenAI a dévoilé un document intitulé la “fiche d’évaluation de GPT-4o,” où il aborde plusieurs risques associés à son dernier modèle de langage avancé. Le rapport souligne les mesures que l’entreprise envisage pour minimiser ces préoccupations.

Immixtion Inquiétante

Un des points soulevés dans ce rapport est particulièrement troublant : le Mode Voix Avancée de ChatGPT, qui permet aux utilisateurs d’interagir vocalement, a commencé à imiter les voix des utilisateurs sans leur consentement. Cela a été rapporté par Ars Technica, qui détaille comment, durant un test, le modèle a produit une sortie en reproduisant la voix d’un utilisateur de manière inattendue.

OpenAI, dans sa documentation, admet que “la génération vocale peut survenir dans des situations non adversariales”, reconnaissant des cas rares où le modèle imitate la voix de l’utilisateur par inadvertance. Cela soulève d’importantes questions éthiques sur le consentement dans l’utilisation de telles technologies.

Un Glissement de Consentement

Dans une démonstration de ce phénomène, un extrait montre ChatGPT qui, après avoir crié “Non!” sans raison apparente, adopte presque parfaitement la voix de l’utilisateur. Ce type d’intrusion évoque des scénarios typiques de films d’horreur de science-fiction, suscitant à juste titre des inquiétudes sur l’avenir de l’interaction humaine avec les intelligences artificielles.

Des réactions diverses ont émergé, notamment celle du scientifique des données Max Woolf de BuzzFeed, qui a humoristiquement affirmé que OpenAI venait de dévoiler l’intrigue de la prochaine saison de Black Mirror.

Potentiel de Clonage Vocale

Dans son rapport, OpenAI explique que son modèle d’IA est capable de produire de l’audio avec une voix synthétique semblable à celle des humains. Cette technologie, bien que révolutionnaire, pose des risques tels qu’une augmentation des fraudes par impersonation ou la propagation de fausses informations.

Non seulement le GPT-4o imite les voix, mais il peut aussi générer des effets sonores et de la musique. En captant les bruits dans les échanges de l’utilisateur, ChatGPT peut parfois être amené à dupliquer la voix de l’utilisateur, un peu comme lors des attaques par injection de commandes.

Heureusement, le risque de répétition vocale involontaire reste jugé “minimal” par OpenAI. L’entreprise a également restreint les capacités de génération de voix non souhaitées en limitant le choix des voix à celles conçues avec des artistes vocales.

Perspectives d’Avenir

Simon Willison, un chercheur dans le domaine de l’IA, a noté que la robustesse des protections contre l’utilisation de voix non approuvées rendait ces manipulations peu probables. Il espère cependant que des versions moins restreintes des modèles puissent voir le jour, exprimant sa frustration face à l’absence de capacités de chant, car il avait hâte de faire chanter des chansons absurdes à son chien.

FAQ

Qu’est-ce que le Mode Voix Avancée de ChatGPT ?

Le Mode Voix Avancée permet aux utilisateurs d’interagir avec ChatGPT par la voix, créant une expérience d’échange plus fluide et naturelle.

Quels risques sont associés à la clonage de voix par l’IA ?

Les principaux risques incluent la fraude, l’usurpation d’identité et la diffusion de désinformation, ce qui soulève des questions éthiques importantes.

Comment OpenAI gère-t-il les préoccupations concernant la génération involontaire de voix ?

OpenAI reste vigilant, en limitant les choix de voix aux modèles créés avec des acteurs de voix pour réduire le risque de violations de consentement.

Quelles autres capacités vocales possède GPT-4o ?

En plus de la reproduction de voix, GPT-4o est capable de générer des effets sonores et de la musique, ce qui élargit son utilisation possible dans divers contextes créatifs.

Quelle est la réaction générale face à ces développements ?

Les réactions vont de l’inquiétude concernant le respect de la vie privée à l’enthousiasme pour les nouvelles possibilités que cette technologie pourrait offrir dans le futur.

Quitter la version mobile