Intelligence Artificielle

Facebook Applaudit le Succès Remarquable de l’Entreprise Locale Al-Qaeda

Facebook Applaudit le Succès Remarquable de l'Entreprise Locale Al-Qaeda

Un Mauvais Goût

Pour ceux qui continuent à utiliser Facebook, vous avez sûrement vu ces vidéos récapitulatives annuelles générées par l’algorithme. Elles réunissent vos publications sur un fond musical joyeux. En vérité, ces vidéos peuvent s’avérer assez désagréables.

Et dans le pire des cas? Elles peuvent propager des contenus violents et haineux. Des chercheurs, représentés par le National Whistleblower Center, ont révélé que Facebook avait produit automatiquement une vidéo pétillante pour une page « business » d’Al-Qaïda, comme l’a rapporté The Associated Press.

Failles Algorithmiques

Facebook vante ses filtres pour détecter les discours de haine générés par l’algorithme.

« Après avoir investi massivement, notre capacité à détecter et à supprimer des contenus liés au terrorisme a considérablement augmenté par rapport à il y a deux ans, » a déclaré Facebook à l’agence AP. « Nous ne prétendons pas tout trouver et restons alertes face aux groupes terroristes dans le monde entier. »

Cependant, ces initiatives, censées être efficaces, ont manqué des profils d’entreprise nommés « Al-Qaïda », ainsi que de nombreux autres profils personnels associés à des chefs terroristes identifiés dans une étude des lanceurs d’alerte.

A lire :  La Collaboration entre Sam Altman et Arianna Huffington : Un Échec Retentissant.

Facebook génère des vidéos célébrant des extrémistes

Problèmes Fondamentaux

L’étude révélait que les fonctionnalités automatiques de Facebook contribuaient à la création de pages qui accumulaient des milliers de mentions “j’aime”, mais ne supprimaient qu’environ 38 % des publications contenant des symboles de haine. Parfois, les extrémistes utilisaient les outils de Facebook pour produire leurs propres contenus, ce qui empêchait ces images de passer sous le radar.

« L’ensemble de l’infrastructure est fondamentalement défaillant, » a déclaré Hany Farid, expert en informatique judiciaire à l’Université de Californie à Berkeley, à l’agence AP. « Il y a très peu de volonté de corriger cela, car Facebook et d’autres entreprises de réseaux sociaux savent qu’une fois qu’elles commencent à être responsables des contenus sur leurs plateformes, cela entraîne de nombreuses autres complications. »

À LIRE AUSSI : Facebook génère automatiquement des vidéos célébrant des images extrémistes [The Associated Press]

Plus sur Facebook: Il faut des humains *et* des algorithmes pour filtrer les discours de haine.

FAQ

Qu’est-ce qui change dans l’algorithme de Facebook ?

Facebook ajuste régulièrement ses algorithmes pour limiter la propagation de contenus nuisibles, mais parfois avec des résultats mitigés.

Comment Facebook gère-t-il les contenus signalés ?

Une fois un contenu signalé, Facebook équipe une équipe de modérateurs pour examiner la publication et appliquer des sanctions si nécessaire.

Quels sont les impacts des discours de haine sur les utilisateurs ?

Les discours de haine peuvent créer un environnement toxique, incitant à la violence et à la discrimination, ayant un effet néfaste sur les communautés.

Existe-t-il des alternatives à Facebook ?

Oui, des plateformes telles que Twitter, Instagram, et TikTok proposent des espaces de partage, mais chacun ayant ses propres politiques de modération.

Peut-on vraiment se protéger contre les contenus indésirables sur les réseaux sociaux ?

Les utilisateurs peuvent se protéger en ajustant leurs paramètres de confidentialité, en signalant des contenus inappropriés et en suivant des pages fiables.