Inscrivez-vous pour découvrir le futur dès aujourd’hui
<div class="newsletter-description">
<p class="info-text">Des innovations incontournables à la pointe des sciences et des technologies</p>
</div>
</div>
</div>
</section>
<p class="main-article-text">Le 23 janvier, ElevenLabs, une startup d'intelligence artificielle fondée par d'anciens employés de Google et Palantir, a annoncé deux grandes nouvelles : un tour de financement de **2 millions de dollars**, ainsi que la lancement d'une version bêta d'un générateur vocal d'IA appelé **Eleven**. Ce dernier est présenté dans un <a href="https://blog.elevenlabs.io/elevenlabs-raises-2m-pre-seed-and-announces-ai-speech-platform-promising-to-revolutionize-audio-storytelling/" rel="noreferrer" target="_blank">communiqué de presse</a> comme une plateforme de **voix IA** promettant de révolutionner le récit audio.</p>
<p class="info-paragraph">Selon le site web de l'entreprise, Eleven est présenté comme « le logiciel de synthèse vocale IA le plus réaliste et polyvalent de tous les temps ». « Eleven offre les voix les plus captivantes, riches et réalistes aux créateurs et éditeurs à la recherche d'outils parfaits pour leur storytelling. »</p>
<p class="current-situation">Cependant, un peu plus d'une semaine après son lancement, ElevenLabs fait face à des problèmes, comme l’expose un <a href="https://twitter.com/elevenlabsio/status/1620032627075063811" rel="noreferrer" target="_blank">fil Twitter</a> partagé lundi : l’augmentation des cas d’utilisation abusive du clonage vocal. Bien que l'entreprise n'ait pas donné de précisions sur ces abus, une enquête de <a href="https://www.vice.com/en/article/dy7mww/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs?utm_source=email&utm_medium=editorial&utm_content=daily&utm_campaign=230130" rel="noreferrer" target="_blank"><em>Motherboard</em></a> a révélé que certains utilisateurs de **4Chan** semblent avoir exploité cette technologie pour créer de faux enregistrements de célébrités tenant des propos racistes, violents ou inappropriés.</p>
<p class="shocking-reports">Ces abus sont pour le moins choquants et prévisibles. Par exemple, l'équipe de <em>Motherboard</em> a découvert qu'un utilisateur avait fait synthétiser une voix similaire à celle d’**Emma Watson** lisant une section de « Mein Kampf » d'Hitler, tandis qu'un autre imitait une voix à la manière de **Ben Shapiro** pour faire des « remarques racistes » concernant la représentante américaine **Alexandria Ocasio-Cortez**.</p>
<p class="alarming-user-activities">Dans un autre cas troublant, un utilisateur aurait synthétisé une voix fictive affirmant que « les droits des trans sont des droits humains », tout en faisant des sons évoquant une strangulation. Bien qu'aucun utilisateur n'ait explicitement indiqué qu'il utilisait la technologie d'ElevenLabs, <em>Motherboard</em> a remarqué qu'au moins un message contenait un lien vers la bêta.</p>
<p class="summary-of-issues">Le rapport indique que « les clips vont du contenu inoffensif aux propos violents, transphobes, homophobes et racistes. »</p>
<p class="company-response">Pour sa part, ElevenLabs semble prendre ces actes de malveillance au sérieux. <a href="https://twitter.com/elevenlabsio/status/1620032660453335040" rel="noreferrer" target="_blank">Dans le même fil</a>, l'entreprise a affirmé que tous les enregistrements audio générés pouvaient être retracés jusqu'à des utilisateurs individuels. Ils ont même suggéré des idées pour renforcer les mesures de sécurité, telles que l'ajout de vérifications de compte comme des « informations de paiement ou même une vérification d'identité complète », de « vérification des droits d'auteur », ou encore l'abandon de la fonctionnalité au profit d'une vérification manuelle de chaque demande de clonage. Bien que cette dernière option semble la plus sécurisée, elle pourrait également s'avérer moins lucrative à court terme.</p>
<p class="conclusion">Cet incident illustre l'un des problèmes majeurs des versions bêta de l’IA générative. Bien que le marché de l'IA générative, dominé par **OpenAI**, soit particulièrement dynamique, les startups espèrent obtenir des financements en capital-risque même si leurs produits ne sont pas encore parfaitement développés. Alors qu'une version bêta traditionnelle rencontre souvent des bugs, les problèmes associés à l'IA générative peuvent avoir de véritables conséquences sur des individus, comme en témoigne l'erreur d'ElevenLabs.</p>
<p class="analogy">C'est un peu comme lancer un véhicule capable d'atteindre 160 km/h sans ceintures de sécurité ni airbags. Les accidents sont presque assurés, mais cela prouve aux investisseurs que vous avez une voiture vraiment rapide. (À noter que la bêta d'ElevenLabs reste accessible.)</p>
<p class="learn-more"><strong>DÉCOUVREZ ENCORE PLUS :</strong> <a href="https://www.vice.com/en/article/dy7mww/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs?utm_source=email&utm_medium=editorial&utm_content=daily&utm_campaign=230130" rel="noreferrer" target="_blank"><em>La société de voix générée par IA se resserre après que 4Chan ait utilisé des voix de célébrités pour des abus</em></a></p>
<div class="article__header__ad-section"><strong>En savoir plus sur l'IA générative : </strong><em>Une chronique de Buzzfeed où un journaliste conseille au PDG de “s’en aller” pour sa décision d'adopter des contenus générés par IA</em></div>
Sommaire
ToggleFAQ
Qu’est-ce qu’ElevenLabs ?
ElevenLabs est une startup d’intelligence artificielle qui développe un générateur vocal basé sur l’IA, promettant des services de narration audio innovants.
Comment fonctionne le clonage vocal ?
Le clonage vocal utilise des algorithmes d’apprentissage profond pour imiter la voix d’une personne, créant des enregistrements qui peuvent ressembler à des déclarations faites par cette personne.
Quelles sont les préoccupations éthiques liées à cette technologie ?
Les abus potentiels incluent la désinformation, le harcèlement et la diffusion de contenus nuisibles ou injurieux, soulevant des questions sur la régulation de l’IA.
Quels sont les projets futurs d’ElevenLabs pour améliorer la sécurité de son produit ?
ElevenLabs envisage d’implémenter des vérifications d’identité plus strictes pour les utilisateurs et d’établir des processus de vérification manuelle pour chaque demande de clonage vocal.
Quelles alternatives existent pour de tels services ?
D’autres entreprises développent également des solutions de voix synthétiques, mais elles doivent toutes faire face aux mêmes enjeux éthiques et techniques en matière de sécurité et d’utilisation responsable.
