</div>
<p>
<figcaption class="article-featured-image-caption">
UKRAINE - 12/01/2022 : Sur cette illustration, le logo de Microsoft News (MSN) s'affiche sur l'écran d'un smartphone, avec le logo de Microsoft en arrière-plan. (Photo illustrée par Igor Golovniov/SOPA Images/LightRocket via Getty Images) <em>Image : SOPA Images/Getty Images</em>
</figcaption>
</p>
L’incident de Microsoft et le sondage déplacé
Récemment, Microsoft a été critiqué pour avoir publié un sondage inapproprié dans un contexte tragique. Cela s’est produit à côté d’un article syndiqué traitant de la découverte du corps d’une jeune femme en Australie. Ce sondage, généré par intelligence artificielle, soulève des questions éthiques et morales. L’article originel, publié par le journal The Guardian, détaillait les circonstances de la mort d’une entraîneuse de water-polo à Sydney, un cas que la police envisage comme un possible meurtre.
Un sondage déplacé
Ce qui choque, c’est que le sondage demandait aux lecteurs de choisir entre plusieurs scenarios : suicide, homicide ou accident. En ajoutant un avertissement mentionnant que le sondage était basé sur des “perceptions issues de l’IA”, la situation devient encore plus choquante. Les lecteurs ont réagi face à l’insensibilité de cette démarche en lien avec un événement aussi tragique.
Les réactions de The Guardian
La direction de The Guardian a exprimé son indignation dans une lettre adressée à Brad Smith, le président de Microsoft. Anna Bateson, PDG de Guardian Media Group, a expliqué que cet incident non seulement contrariait la famille de la victime, mais portait également un préjudice au réputation du journal et de ses journalistes. Dans sa lettre, elle a dénoncé l’utilisation inappropriée de l’IA par Microsoft sur un sujet d’intérêt public sensible.
Demandes de clarification
Bateson a également exigé des explications sur la manière dont Microsoft prévoit de compenser ses partenaires d’information lorsque leurs contenus sont intégrés dans le développement et le déploiement de technologies d’IA. Elle a rappeler que, bien que Microsoft ait le droit de republier The Guardian sur sa plateforme MSN, un accord préalable avait été convenu pour ne pas utiliser l’IA sans autorisation spécifique.
Réactions de Microsoft
En réponse à cette controverse, Microsoft a affirmé avoir désactivé la fonction de sondage et a commencé une enquête pour comprendre la source de ce contenu inapproprié. Un porte-parole de l’entreprise a reconnu que ce sondage n’aurait pas dû apparaître aux côtés d’un article aussi sérieux et a promis de prendre des mesures pour éviter que ce type d’erreur ne se reproduise.
L’impact sur le secteur des médias
Cette affaire n’est qu’un exemple de la transition vers l’IA dans le domaine des médias, où de nombreuses entreprises, comme BuzzFeed ou CNET, ont rencontré des difficultés. De nombreuses entreprises se lancent dans l’IA sans en maîtriser les implications, ce qui entraîne souvent des dégâts irrévocables.
Plus sur les défis de l’IA
La tendance déroutante à intégrer l’IA dans les opérations médiatiques continue de susciter des questionnements sur l’avenir de l’industrie.
FAQ
Quand a eu lieu cet incident avec Microsoft ?
L’incident s’est produit peu après la publication d’un article sur un décès tragique, avec le sondage associé sur la plateforme MSN de Microsoft.
Quels impacts cela aura-t-il sur The Guardian ?
Cet événement pourrait affecter la réputation de The Guardian et ses relations avec d’autres partenaires médiatiques, intensifiant les discussions sur l’utilisation responsable de l’IA.
Microsoft a-t-il reconnu une erreur ?
Oui, Microsoft a reconnu que le sondage était inapproprié et a pris des mesures pour empêcher la récurrence de ce genre de situation.
Comment fonctionne la syndication de contenu de The Guardian par Microsoft ?
Microsoft a une licence pour republier des articles de The Guardian, mais des limites avaient été établies concernant l’utilisation de l’IA sans accord préalable.
Quelles sont les implications éthiques de l’utilisation de l’IA dans les médias ?
Les médias doivent naviguer prudemment entre l’innovation technologique et la sensibilisation éthique, en particulier concernant des sujets délicats susceptibles de choquer le public.
