Attentat de Christchurch : pourquoi Facebook n'arrive pas à contrôler les vidéos en direct
Par Xavier DemagnyQuinze jours après l’attentat dans une mosquée à Christchurch (Nouvelle-Zélande), filmé en direct sur Facebook par son auteur, la plateforme annonce prendre des mesures pour éviter ce genre de situations. Sauf qu’elle est en réalité face à un problème aujourd’hui impossible à résoudre.
Le réseau social avait d’abord interdit, jeudi, tous les contenus faisant l'apologie du "nationalisme" ou du "séparatisme" blanc. Mais quinze jours après l’attentat de Christchurch (Nouvelle-Zélande), la première ministre Jacinda Ardern avait jugé que l’entreprise américaine devait “faire plus” après le massacre perpétré par un australien dans une mosquée de son pays. Ce dernier a tué, le 15 mars, 50 fidèles tout en diffusant sur Facebook en direct les images du massacre. “On pourrait se dire que ces catégories auraient dû entrer depuis toujours dans les directives (de Facebook) sur les discours de haine”, avait-elle reproché à la plateforme estimant qu’il y a “encore du travail à faire”.
Facebook aurait donc enfin entendu cet appel, en promettant vendredi un certain nombre de mesures pour limiter notamment l’usage de sa plateforme de diffusion de vidéos en direct, Facebook Live, utilisée par l’auteur de l’attentat et dont les images se sont très rapidement propagées sur la toile. Mais l’entreprise est face à un problème difficile à résoudre.
Mieux détecter les vidéos dupliquées
“Beaucoup d'entre vous ont demandé à juste titre comment des plateformes en ligne telles que Facebook ont été utilisées pour diffuser des vidéos horribles de l'attaque. Nous sommes déterminés à examiner ce qui s’est passé et nous travaillons en étroite collaboration avec la police néo-zélandaise pour appuyer sa réponse” écrit Sheryl Sandberg, numéro deux de Facebook, dans un billet diffusé sur le blog d'Instagram, filiale de Facebook.
Ainsi, le groupe pourrait donc interdire l’accès à Facebook Live aux utilisateurs ayant auparavant enfreint ses règles de publication pour les empêcher de générer des vidéos en direct choquantes. Autre reproche fait à la plateforme, avoir tardé à supprimer la vidéo et les images qui en avaient été extraites : pour y répondre Facebook dit aussi chercher à mettre au point une technologie plus efficace “pour identifier rapidement les versions modifiées (par montage) de vidéos violentes et empêcher les gens de les re-partager”. Plus d’un million de copies de la vidéo de l’attentat de Christchurch auraient en effet été retirées de la plateforme dans les 24 heures ayant suivi l’attentat.
Problème sans solutions
Mais comme souvent, Facebook ne donne aucun calendrier sur la mise en place de ces mesures. En effet, face à ces situations, même si l’entreprise américaine se voit contrainte de répondre et de proposer des pistes, elle n’a en réalité presque aucune solutions. Surtout, elle préfère avancer prudemment, analyse Jérémie Mani, spécialiste de la modération sur les réseaux sociaux et patron de l’entreprise Netino : “Il faut pouvoir tenir ses engagements derrière et tout ça demande beaucoup de développements techniques”.
“Ils n’ont pas la solution, ils sont désarmés face à cela”
La question des vidéos diffusées en direct, un problème “insoluble”, un “point faible” de Facebook car la modération en temps réel de ces contenus est complètement impossible d’autant qu’il y a des dizaines de milliers de vidéos diffusées en direct chaque jour. “L’algorithme d’intelligence artificielle de reconnaissance n’est pas assez précis, bloquer un utilisateur ne l’interdit pas de créer un autre compte. Ils n’ont pas la solution, ils sont désarmés face à cela : je n’aimerais pas être à leur place” poursuit-il. Difficile donc pour Facebook de contrôler le monstre que l’entreprise a elle-même créé. Il ne faut pas non plus oublier que le site est financé par les recettes publicitaires et dont le montant évolue logiquement en fonction de la fréquentation de la plateforme.
Enfin Facebook, comme les autres plateformes internet, est en permanence pris dans un dilemme : celui de laisser les opinions s'exprimer au nom de la liberté d'expression tout en devant expurger les messages choquants et haineux. Ainsi le site est régulièrement accusé de censure ou, à l'inverse, de ne pas agir assez efficacement contre les publications litigieuses.