Publicité

Tuerie de Buffalo filmée en direct : l'impossible modération des vidéos sur Facebook et Twitter

Par
Des tweets de vidéos de la tuerie sont encore en ligne, malgré la volonté affichée de Twitter de les supprimer.
Des tweets de vidéos de la tuerie sont encore en ligne, malgré la volonté affichée de Twitter de les supprimer.
- Capture d'écran Twitter

La retransmission en direct sur Twitch de la tuerie de Buffalo samedi a été stoppée au bout de deux minutes. Mais des extraits circulent depuis dimanche sur Facebook et Twitter, sans que les plateformes ne puissent les arrêter.

Une tuerie de masse et une retransmission vidéo. Les deux choses sont régulièrement indissociables. En témoigne le dernier fait-divers américain samedi : l'attentat perpétré par un suprémaciste blanc, Payton Gendron, âgé de 18 ans, qui a ouvert le feu avec un fusil d'assaut dans un supermarché d'un quartier majoritairement afro-américain de la ville de Buffalo dans l'Etat de New York. "Un crime raciste motivé par la haine", selon les autorités qui déplorent la mort de dix personnes. Le tueur a diffusé ses actions en direct via la plateforme Twitch, propriété d'Amazon, et des extraits ont rapidement circulé sur les réseaux sociaux et ce malgré les efforts de modération des géants de l'Internet pour limiter la diffusion de ces images.

Le direct coupé au bout de deux minutes

Payton Gendron avait accroché une petite caméra sur son casque pour filmer et diffuser son entreprise de mort. Les images commencent à son arrivée en voiture sur le parking du supermarché Tops Friendly Markets. Après s'être garé, il commence à tirer avec son fusil sur quatre personnes à l'extérieur, avant d'entrer dans le bâtiment et d'abattre de sang froid tous ceux à sa portée. Tout cela a été diffusé en direct sur Twitch. Un choix murement réfléchi par le tireur, révèle le New York Times, qui a expliqué sur Discord avant de passer à l'acte que "diffuser en direct cette attaque [lui] donne de la motivation car [il sait] que des gens vont [l]'encourager", mais aussi que les internautes pourront non seulement " regarder " et aussi " enregistrer " les images.

Publicité

Heureusement, la retransmission en direct n'a pas duré. La direction de Twitch a fait savoir dimanche que le direct mortifère avait été coupé par leurs modérateurs au bout de seulement deux minutes après le début de la violence, donc des premiers tirs. "Le fait d'avoir réussi à le faire en deux minutes, c'est un grand progrès", salue Romain Badouard, enseignant-chercheur en sciences de l'information et de la communication à l'université Paris 2 Panthéon-Assas.

Un grand progrès, effectivement, en comparaison aux 17 minutes de diffusion en direct sur Facebook de l'attaque terroriste de Christchurch en Nouvelle-Zélande en 2019 durant laquelle 51 personnes avaient été tuées par le suprémaciste blanc Brenton Tarrant. "Mais il se passe déjà beaucoup de choses en deux minutes", tempère l'universitaire. On a notamment retrouvé des extraits diffusés sur Facebook et Twitter, partagés dimanche des centaines de fois et vus plusieurs millions de fois.

Le pari de l'intelligence artificielle

"Le problème de Twitch, comme de Facebook à l'époque de Christchurch, c'est qu'il s'agit de live streaming et donc de modération en direct. Et ça, c'est beaucoup plus dur pour les algorithmes. Lorsqu'on charge une vidéo sur YouTube par exemple, c'est facile de passer la vidéo au scan et d'essayer de repérer des extraits violents qui pourraient correspondre à un contenu terroriste. Par contre, quand c'est en live, c'est beaucoup plus difficile parce qu'il faut le faire en direct", analyse Romain Badouard.

Depuis Christchurch, des moyens supplémentaires ont été apportés à la modération par les grandes plateformes. Les moyens humains restent dérisoires : 2 000 modérateurs par exemple chez Twitter (pour plus de 300 millions d'utilisateurs actifs dans le monde) ou encore 15 000 chez Facebook (pour plus de 2,9 milliards d'utilisateurs actifs dans le monde). "La grande évolution", note Romain Badouard, "c'est l'automatisation de la modération".

"Toutes les grandes plateformes ont parié sur l'intelligence artificielle pour essayer de détecter automatiquement des contenus violents, des contenus haineux et des contenus terroristes, ce qui marche avec plus ou moins de réussite", explique-t-il. "Le point positif, c'est que les contenus sont effectivement détectés plus rapidement. Le point négatif, c'est qu'il reste quand même assez facile de contourner ces algorithmes de détection, et par ailleurs, ils font parfois des erreurs ces algorithmes, ils peuvent aussi produire des formes de censure abusives."

Contourner la modération

Ces limites provoquent des situations comme on vient de le voir avec la tuerie de Buffalo. Au moment de l'écriture de ces lignes, il faut moins d'une minute pour trouver un extrait du live du tireur sur Twitter, c'est à la portée d'un enfant. Comment ces vidéos échappent-elles au algorithmes ? D'autant plus que depuis Christchurch, les principales plateformes collaborent entre elles à l'aide d'une base de données d'empruntes numériques pour lutter contre les contenus terroristes et extrémistes, et retirent ces contenus dès qu'une emprunte numérique est détectée.

Le fait est qu'il est toujours possible de contourner la modération : "La vidéo d'origine, n'importe quelle grande plateforme a appris à la détecter. Mais il suffit que moi je la filme avec mon portable depuis mon écran d'ordinateur et que je la charge depuis mon téléphone pour qu'un algorithme de détection automatique ne puisse plus la reconnaître, parce que ce n'est plus tout à fait la même vidéo. Elle n'a plus le même cadrage, la même pixellisation, etc. C'est très compliqué pour les plateformes à modérer ce type de contenu."

L'impossible modération parfaite

Mais est-ce seulement un problème de moyens humain et techniques ou est-ce toujours cette volonté qui prime pour Twitter de modérer timidement les contenus diffusés, au prétexte des risques que cela ferait peser sur liberté d'expression ? Au New York Times, une porte-parole de Twitter a d'abord expliqué que le réseau "pourrait retirer certains extraits de la vidéo" de Buffalo, ou bien la laisser circuler avec un "avertissement de contenu sensible", avant de finalement décider plus tard que toutes les vidéos détectées seraient supprimées.

Impossible toutefois de répondre aux exigences politiques qui naissent après chaque tuerie, comme quand ce weekend, la gouverneure de New York, Kathy Hochel, a appelé les plateformes à supprimer les contenus "dans la seconde" ou "rendre des comptes".

"Le gros problème de ces plateformes, c'est qu'on ne peut pas non plus empêcher complètement à 100% la diffusion de ce type de contenu sans limiter drastiquement la liberté d'expression des internautes sur ces plateformes", analyse Romain Badouard. Le risque par exemple de censure de contenus jugés problématiques, et de façon autoritaire, par une intelligence artificielle gérée par une entreprise privée.

Selon lui, "une modération parfaite. C'est une modération qui serait contextualisée, qui serait faite humainement, à taille humaine. (…) Il faudrait qu'il y ait un modérateur attribué à chaque à chaque chaîne, sur Twitch ou sur YouTube ou autre, et qui surveille en direct ce qui s'y passe. En terme de ressources humaines, ça parait un peu impossible."