Inscrivez-vous pour découvrir l’avenir dès aujourd’hui.
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Des innovations à ne pas manquer dans les domaines les plus avancés de la science et de la technologie.</p>
</div>
</div>
</div>
</section>
## Une histoire troublante
<p class="pw-incontent-excluded article-paragraph skip">Vous vous souvenez de l’histoire troublante de 2016 où Microsoft a créé un **bot Twitter** nommé **Tay**? Ce projet a dû être annulé <a href="https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist" rel="noreferrer" target="_blank">en moins de 24 heures</a> à cause de trolls sur Internet qui l'ont transformé en un **propagateur de haine néo-nazi**.</p>
<p class="article-paragraph skip">D’après le nouveau livre du président de Microsoft, **Brad Smith**, la chanteuse **Taylor Swift** a exprimé son mécontentement face à cette situation. <a href="https://gizmodo.com/taylor-swift-threatened-legal-action-against-microsoft-1838011533?" rel="noreferrer" target="_blank">Comme le rapporte <em>Gizmodo</em></a>, les avocats de Swift ont pris contact avec Microsoft pour signaler que le nom de Tay créait une « **association fausse et trompeuse** » avec la célèbre chanteuse.</p>
## Changement de nom
<p class="article-paragraph skip">Le livre indique que la raison pour laquelle Microsoft a décidé de renommer son prochain chatbot — qui devait éviter de discuter de <a href="https://qz.com/1340990/microsofts-politically-correct-chat-bot-is-even-worse-than-its-racist-one/" rel="noreferrer" target="_blank">sujets délicats comme la politique et la race</a> — était principalement pour éviter un conflit juridique.</p>
<p class="article-paragraph skip"><em>Gizmodo</em> fait état du fait que les avocats en propriété intellectuelle de Microsoft n’étaient pas complètement convaincus par le lien entre Tay et Taylor Swift. Cependant, pour éviter un procès, ils ont choisi de baptiser le nouveau chatbot **"Zo"**. À ce jour, aucun autre artiste n’a exprimé de préoccupations.</p>
<p class="article-paragraph skip"><strong>POUR EN SAVOIR PLUS :</strong> <a href="https://gizmodo.com/taylor-swift-threatened-legal-action-against-microsoft-1838011533?" rel="noreferrer" target="_blank">Taylor Swift a menacé Microsoft d’actions en justice concernant le bot raciste et génocidaire Tay</a> [<em>Gizmodo</em>]</p>
<p class="article-paragraph skip"><strong>Des préoccupations sur l'IA de Microsoft :</strong> <em>Microsoft s'inquiète que son IA ne devienne incontrôlable et nuise à sa réputation.</em></p>
Sommaire
ToggleFAQ
Pourquoi Microsoft a-t-il créé un chatbot ?
Microsoft a développé des chatbots comme Tay pour explorer les interactions en temps réel et comprendre comment l’intelligence artificielle peut interagir avec les utilisateurs.
Quelles ont été les conséquences de l’affaire Tay ?
L’annulation du bot Tay a mis en lumière les défis éthiques liés à l’IA et à la façon dont les technologies peuvent être manipulées par des utilisateurs malveillants.
Que signifie le recyclage des noms dans la technologie ?
Renommer un produit ou un service après un incident public peut être une stratégie pour éviter les associations négatives et les problèmes juridiques potentiels.
Existe-t-il d’autres exemples de bots controversés ?
Oui, d’autres entreprises ont également rencontré des problèmes similaires avec des chatbots qui ont produit des contenus inappropriés ou offensants, suscitant des critiques sur l’IA.
Comment Microsoft s’assure-t-il de la sécurité de ses nouveaux chatbots ?
Microsoft utilise des systèmes de surveillance et de filtration avancés pour s’assurer que leurs chatbots respectent des normes éthiques et ne produisent pas de contenu nuisible.
