Les fausses informations sur les réseaux sociaux
Face à l’augmentation alarmante des fausses informations se propageant sur les réseaux sociaux dans les années 2010, la société Meta, anciennement Facebook, a mis en place des systèmes d’apprentissage automatique. Ces systèmes avaient pour but d’identifier et de limiter la diffusion de récits mensongers qui devenaient vite viraux. Malheureusement, comme le révèle un article de Platformer, Meta a récemment décidé de désactiver ces outils de détection des canulars.
L’efficacité des systèmes de détection
Ces systèmes automatisés avaient ciblé des narrations farfelues et parfois même dangereuses physique, comme la fameuse théorie du complot Pizzagate, d’une absurdité sans égale. Selon des documents internes analysés par Platformer, ces outils d’apprentissage automatique ont prouvé leur efficacité, en limitant la propagation des fausses informations de plus de 90 %. Pourtant, la décision de désactiver ces systèmes n’a pas été expliquée publiquement par Meta.
Changement de cap chez Meta
La semaine dernière, un nouveau responsable de la politique mondiale chez Meta a exprimé dans un article de blog que les pratiques de sécurité de l’entreprise avaient conduit à une censure injuste de contenus qui, selon les algorithmes, pourraient ne pas respecter ses standards. Il a mentionné : « Nous sommes en train de réévaluer ces dégradations » et qu’il serait nécessaire d’avoir plus de certitude avant de considérer qu’un contenu enfreint les règles.
Réformes contestées
La décision de mettre fin aux systèmes de détection des canulars survient dans le cadre de changements profound et débat autour des pratiques de confiance et de sécurité de Meta. Mark Zuckerberg, caractérisé comme le “roi incontesté” de la Silicon Valley, a déclaré dans une vidéo que l’entreprise souhaitait retourner à ses racines en matière de liberté d’expression. Ces changements incluent la fin de l’initiative de vérification par des tiers, ainsi qu’une plus grande tolérance pour un langage déshumanisant sur la plateforme.
Désormais, les utilisateurs peuvent mal référencer les personnes transgenres, appeler les femmes des « objets » et même se vanter d’être des racistes fiers. Les efforts pour lutter contre la désinformation seront désormais principalement axés sur un modèle centré sur l’utilisateur, similaire aux “Community Notes” de l’ancien Twitter.
Impact incertain
Cette initiative de désactiver les systèmes de détection des canulars s’inscrit dans une série de réformes sous l’ère de Zuckerberg. Il reste à voir comment ces modifications influenceront l’expérience quotidienne des utilisateurs de Meta et affecteront notre écosystème d’information en général. En revanche, cela a indubitablement ravi Donald Trump, qui avait précédemment menacé de mettre Zuckerberg sous les verrous pour de fausses accusations de fraude électorale.
FAQ
Que sont les systèmes d’apprentissage automatique de Meta ?
Ce sont des technologies avancées utilisées pour détecter et limiter la diffusion de fausses informations sur les réseaux sociaux.
Quelle a été l’efficacité de ces systèmes avant leur désactivation ?
Ils ont limité la propagation des fausses informations de manière incroyable, atteignant plus de 90 % d’efficacité.
Pourquoi Meta met-elle fin à ces systèmes ?
Meta souhaite modifier sa politique pour encourager une plus grande liberté d’expression sur ses plateformes, même au risque de laisser passer certaines informations fausses.
Quels types de discours sont désormais permis sur Meta ?
Les utilisateurs peuvent désormais utiliser des termes déshumanisants et exprimer des opinions extrêmes sans craindre une censure immédiate.
Quel impact ces changements auront-ils sur les utilisateurs ?
Les modifications pourraient rendre l’environnement en ligne plus toxique et augmenter la propagation de la désinformation.
