Face au terrorisme, le casse-tête de la réforme des réseaux sociaux

Publicité

Face au terrorisme, le casse-tête de la réforme des réseaux sociaux

Par
La responsabilité des réseaux sociaux a été pointée du doigt dans l'assassinat du professeur d'histoire-géographie, Samuel Paty, le 16 octobre 2020.
La responsabilité des réseaux sociaux a été pointée du doigt dans l'assassinat du professeur d'histoire-géographie, Samuel Paty, le 16 octobre 2020.
© AFP - DENIS CHARLET

Le rôle des réseaux sociaux a été pointé du doigt après l'attaque terroriste de Conflans-Sainte-Honorine, dans les Yvelines. Suite à la décapitation de Samuel Paty, le gouvernement a annoncé plusieurs mesures pour renforcer la surveillance des réseaux sociaux et lutter contre la haine en ligne.

Les réseaux sociaux sont-ils en partie responsables de l'assassinat de Samuel Paty, ce professeur d'histoire-géographie décapité près de son collège le 16 octobre ? C'est l'une des nombreuses questions soulevées par l'attaque terroriste de Conflans-Sainte-Honorine, dans les Yvelines. Dans une vidéo postée sur YouTube et devenue virale sur les réseaux sociaux, un père d'élève dénonçait l'un des cours de Samuel Paty lors duquel il avait présenté des caricatures de Mahomet et donnait des informations sur son établissement. Le gouvernement a rapidement mis en cause les réseaux sociaux dans le relais de messages stigmatisant l'enseignant, Marlène Schiappa convoquant leurs responsables, et a annoncé des mesures pour renforcer leur surveillance. "Nous ne pouvons plus nous résoudre à assister passivement au déchaînement de la haine sur les réseaux sociaux", affirmait par exemple le Premier ministre, Jean Castex, le mardi 20 octobre. Le chantier est aussi vaste qu'ancien, voici quelques-unes des pistes de travail avancées par le gouvernement.

Renforcement de la plateforme Pharos

C'est l'une des premières mesures annoncées par le gouvernement après l'assassinat de Samuel Paty : les effectifs de la plateforme Pharos, rattachée au ministère de l'Intérieur, vont être renforcés "sans délai", a promis le Premier ministre, Jean Castex. Pharos, pour Plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements, a été mise en place en 2009 pour lutter contre les contenus illégaux en ligne. Les internautes peuvent la saisir pour signaler tout type de contenu diffusé sur internet qui contrevient à la loi française. Il y a une "une trentaine d'agents seulement pour traiter des dizaines de milliers de signalements tous les trimestres", affirme Romain Badouard, maître de conférence à l’Institut français de presse, à l’université Paris II – Panthéon Assas. "Des internautes vont leur signaler des contenus qui posent problème : sur un réseau social, un site, un forum. _Leur travail va donc être d'aller vérifier et le cas échéant, soit de faire remonter à un juge, au parquet ou à la plateforme elle-même, le fait qu'elles hébergent des contenus problématiques__, et elles ont obligation de les supprimer_", détaille ce spécialiste des questions numériques.

Publicité
La plateforme Pharos a été créée en 2009, elle est rattachée au ministère de l'Intérieur.
La plateforme Pharos a été créée en 2009, elle est rattachée au ministère de l'Intérieur.
© AFP - PHILIPPE HUGUEN

La tâche des agents de Pharos est vaste : des discours haineux au cyberharcèlement, en passant par les arnaques. "La plupart de ces contenus qui posent problème sont souvent justement le fait d'arnaques et de tentatives d'extorsion d'informations personnelles ou d'informations bancaires. Donc, a priori, les agents de Pharos, sont plutôt confrontés à cela, même s'ils sont compétents pour traiter ce qui relève du discours de haine, du cyberharcèlement", précise Romain Badouard. 

On a beaucoup entendu parler de Pharos depuis l’assassinat de Samuel Paty, mais c’est une plateforme qui reste quand même assez méconnue du grand public.                                                                    
Romain Badouard, maître de conférence à l’Institut français de presse

L'efficacité de la plateforme a été remise en cause après la mort de Samuel Paty, car le compte Twitter de l'assaillant présumé avait été signalé à Pharos à plusieurs reprises et notamment l'un des messages posté six jours avant l'attaque terroriste. L'enquête doit déterminer pourquoi aucune suite n'a été donnée à ce signalement. Alors un renforcement des effectifs de la plateforme sera-t-il suffisant pour éviter qu'un tel drame se reproduise ? "Étant donné le volume de contenus qui sont publiés sur les réseaux sociaux, des centaines d'heures de vidéos chaque minute, chargés sur YouTube, des centaines de milliers de tweets, là encore, chaque minute : on pourra embaucher des centaines ou des milliers de personnes, cela ne suffira jamais", affirme le maître de conférences à l'Institut français de presse. Le renforcement de Pharos est nécessaire mais ne sera pas suffisant, confirme également Marc Rees. Pour le rédacteur en chef du site NextInpact, spécialisé en droit du numérique, il faut qu'il y ait une "courroie de transmission efficace" entre les signalements et la justice, sinon "les dossiers font pschitt"

Enfin, selon Romain Badouard, il y a des "progrès à réaliser pour faire connaître cet outil et le diffuser dans la société". 

Création d'un nouveau délit

Le Premier ministre a également annoncé vouloir créer un "délit de mise en danger par la publication de données personnelles" sur internet, après l'assassinat de Samuel Paty. "C'est bien parce qu'il a été désigné par les réseaux sociaux que Samuel Paty a été assassiné", a affirmé Jean Castex.

Certains avocats spécialistes en droit du numérique estiment que l'arsenal législatif est déjà suffisant pour lutter contre la propagation de la haine en ligne. "Dans le code pénal, il y a déjà de quoi sanctionner celles et ceux qui dénoncent sur les réseaux sociaux des personnes, des appels au crime, des incitations à la haine, des incitations au délit", explique Alexandre Lazarègue, avocat au barreau de Paris. Ce spécialiste en droit du numérique se dit "un peu mal à l'aise" avec la proposition du gouvernement, qui répond selon lui à "une peur légitime de la population".

Il ne faut pas surréagir, une loi et une législation, cela se fait avec le temps.                                                                  
Maître Alexandre Lazarègue, avocat au barreau de Paris et spécialiste en droit du numérique

Romain Badouard confirme qu'il y a cette volonté "assez française" au moment de drames ou de faits divers dans l'actualité, "_de toujours chercher à créer de nouvelles lois pour montrer qu'on agit". "Dans ce domaine de la lutte antiterroriste, de la lutte contre les discours de haine, contre le harcèlement, il existe déjà beaucoup de lois en France. L'enjeu est plutôt celui de leur application",_ souligne ce spécialiste en questions numériques, maître en conférence à l'Institut français de presse.

De son côté, Marc Rees questionne l'efficacité d'une telle mesure. "À supposer que moi, je donne un nom sur Facebook, par exemple, au détour d'un post. Comment un acteur comme Facebook et ses équipes de modération va pouvoir estimer que ce nom cité est dans les clous de la loi ? Ou alors qu'il l'a été en violation de ce futur délit ?", s'interroge le rédacteur en chef de NextInpact.

Matières à penser avec Serge Tisseron
45 min

La responsabilité des réseaux sociaux en question

Aujourd'hui, les réseaux sociaux ne sont pas tenus pour responsables des messages qui sont diffusés sur leurs plateformes. "Jusqu'à présent, ils se sont présentés, et le droit les a considérés comme tels, comme _de simples hébergeurs__, comme des espèces de boîtes aux lettres sur lesquelles seraient diffusés des messages sur lesquels ils disent ne pas avoir la main",_ déplore maître Alexandre Lazarègue, avocat au barreau de Paris.

Les réseaux sociaux ont seulement l'obligation, "et cela est pénalement réprimé s'ils ne le font pas", précise Alexandre Lazarègue, de supprimer des messages illicites postés sur leurs plateformes si on leur notifie. Malgré des signalements, la suppression de ce type de contenu peut parfois prendre du temps. Un exemple récent atteste le temps de latence qui existe parfois entre le signalement et la suppressions sur une plateforme numérique : jeudi 29 octobre, Twitter a fini par supprimer, après un temps d'hésitation, un tweet faisant l'apologie du meurtre posté sur le compte de l'ex-Premier ministre malaisien. "Au cours de leur histoire, les Français ont tué des millions de gens. Beaucoup étaient musulmans. Les musulmans ont le droit d'être en colère et de tuer des millions de Français pour les massacres du passé", a écrit Mahathir Mohamad, peu après l'attaque terroriste survenue à Nice, sans y faire référence. Twitter a d'abord maintenu le tweet avec un message d'avertissement, invoquant un "intérêt pour le public", avant de le supprimer.

Au-delà du temps mis par les plateformes numériques à supprimer des contenus haineux, la question de l'opacité des algorithmes se pose. Pour Alexandre Lazarègue, les réseaux sociaux sont responsables des contenus qu'ils diffusent car ils "utilisent des algorithmes qui leur permettent de définir des véritables lignes éditoriales, c'est-à-dire que les messages sont mis en avant selon leur contenu". "Si vous tenez des propos "polarisants", radicaux, vous serez plus mis en valeur que si vous faites la promotion du vivre ensemble", décrypte l'avocat au barreau de Paris, spécialiste en droit du numérique.

"_Le contenu n'est pas viral de lui-même : ce sont des algorithmes qui ont généré cette dispersion__, sa diffusion à une telle vitesse et qui ont permis de faire qu’il revenait sans cesse vers des cibles différentes, des utilisateurs différents, qui peut-être même n’avaient pas du tout demandé à voir ce contenu. Donc, il y a un angle mort, c’est la transparence algorithmique de tous ces réseaux sur lesquels les contenus ont pu circuler. On devrait avoir beaucoup plus d’exigence et lever cet aspect boîte noire de l'algorithme pour savoir ce qui fait que le contenu est remonté_", pointe du doigt Nathalie Devillier, enseignante-chercheure en droit du numérique à l’école de Management de Grenoble.

Les réseaux sociaux disent qu'ils n'ont pas la main sur les textes qui sont mis en ligne sur la plateforme. C'est tout à fait inexact puisqu'ils favorisent tel ou tel message plutôt que tel autre.                                                          
Alexandre Lazarègue, avocat au barreau de Paris

Pour Alexandre Lazarègue, il faut que les réseaux sociaux soient considérés comme des "responsables éditoriaux, des directeurs de publication" et plus comme des "hébergeurs" et que le droit de la presse leur soit appliquée.

L'Invité des Matins (2ème partie)
19 min

Groupe de contact permanent entre l'État et les plateformes

Après l'assassinat de Samuel Paty, la ministre déléguée à la citoyenneté, Marlène Schiappa, a annoncé la réactivation du groupe de contact permanent entre les forces de l'ordre et les plateformes. Ce groupe avait été créé après les attentats de janvier 2015, à l'initiative du ministre de l'Intérieur de l'époque, Bernard Cazeneuve. "L'enjeu initial était d'apporter une réactivité opérationnelle face à des problématiques de contenus en ligne. Autour de la table, on retrouve Facebook ou Twitter, mais également des représentants des forces de l'ordre et du gouvernement", rappelle Marc Rees, rédacteur en chef du site NextInpact, spécialisé en droit du numérique.

Depuis un an environ, le groupe a été mis en sommeil, sans qu'une raison officielle soit invoquée. "J'ai pu questionner Marlène Schiappa sur Twitter, mais je n'ai pas eu de réponse, je ne sais pas encore pourquoi il était mis en sommeil", souligne Marc Rees. Et de suggérer : "Peut être qu’il a été délaissé, que le gouvernement estimait que son rôle était trop annexe ou subalterne ?"

Après l'attentat qui a coûté la vie à cet enseignant, le gouvernement a considéré que le groupe de contact permanent était une solution à explorer de toute urgence.                                                        
Marc Rees, rédacteur en chef du site NextInpact

Les sujets de discussion de ce groupe de contact permanent ne sont pas rendus publics. Mais l'objectif est de "simplifier les rapports entre États et plateformes pour que les directives étatiques soient plus facilement appliquées sur les plateformes, c'est-à-dire qu’on ne soit pas obligés de passer par quinze intermédiaires pour faire appliquer une décision, comme bloquer des comptes d'un réseau djihadiste. Donc, l'idée, c'était de pouvoir être beaucoup plus efficace, justement dans le cadre de la lutte contre le terrorisme", retrace Romain Badouard, maître de conférences à l'Institut français de presse.

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.

Le retour de la loi Avia ?

Le projet de loi, déposé par la députée LREM Laetitia Avia mais censuré par le Conseil constitutionnel en juin 2020, aurait-il permis la suppression de la vidéo visant Samuel Paty ? Le ministre de l'Intérieur, Gérald Darmanin, a estimé que ce projet de loi, qui visait à lutter contre les contenus haineux en ligne aurait "permis de faire retirer et de poursuivre ce père de famille". Ce projet de loi obligeait les plateformes comme Facebook, YouTube et Twitter à supprimer en moins de 24 heures les contenus haineux signalés par les internautes ou les forces de l'ordre.

La députée LREM, Laetitia Avia, a déposé un projet de loi visant à lutter contre les contenus haineux en ligne, en mai 2020.
La députée LREM, Laetitia Avia, a déposé un projet de loi visant à lutter contre les contenus haineux en ligne, en mai 2020.
© AFP - STEPHANE DE SAKUTIN

Au contraire, pour Romain Badouard, la loi Avia n'aurait pas pu empêcher la diffusion sur les réseaux sociaux de cette vidéo stigmatisant le professeur d'histoire-géographie. "Dans cette vidéo, le parent d'élève en question mentionne Samuel Paty, livre des informations personnelles le concernant, mais il n'appelle pas à la violence directe contre lui et il ne tient pas de propos haineux à son égard. On peut imaginer qu'un modérateur, même avec la loi Avia n'aurait pas forcément vu le danger qu'il y avait derrière cette vidéo", rappelle le maître de conférences.

Journal de 18h
19 min

Dans la vidéo postée par le père d'une collégienne, quelques jours avant l'attaque terroriste, Samuel Paty est qualifié de "voyou" parce qu'il montre à ses élèves en cours des caricatures de Mahomet. "_La vidéo du père en question pouvait à la rigueur rentrer dans le champ de l'injure parce qu'il était qualifié de voyou__. Mais pour autant, on ne se retrouvait pas forcément dans un cadre du type manifestement illicite. En ce sens, lorsque Facebook a reçu des notifications sur la présence de cette vidéo, le réseau social a été bien embêté de savoir si oui ou non, il devait le supprimer. Et visiblement, il ne l'a pas fait dans les premiers moments",_ précise Marc Rees, le rédacteur en chef du site NextInpact. 

Le secrétaire d'État au Numérique va d'ailleurs dans ce sens dans un billet publié sur la plateforme Medium. "Les propos du père de famille incriminant le professeur, pour révoltants qu’ils soient, n’auraient probablement pas été qualifiés de manifestement illicites et auraient donc échappé à l’obligation de modération et de retrait portée par le texte", écrit Cédric O dans son billet, publié le 20 octobre.

La proposition de loi portée par la députée Laetitia Avia et soutenue par le Gouvernement, qui a connu le sort que l’on sait, n’aurait probablement pas permis d’éviter le drame.                                            
Cédric O, secrétaire d'État en charge du numérique

Le débat autour de la loi Avia a en tout cas fait son retour sur la scène politique après l'assassinat de Samuel Paty. Les députés pourraient donc envisager de rédiger une seconde version moins liberticide, afin d'éviter qu'elle soit retoquée par le Conseil constitutionnel. "Ce qui faisait peur au Conseil constitutionnel et à de nombreux observateurs, c'était l'idée que menacer les réseaux sociaux d'une grosse amende s'ils ne retiraient pas assez vite les contenus, les poussent à surcensurer. C'est-à-dire que si on a une menace d'amende et qu'on nous signale des contenus, on va avoir tendance à tous les supprimer plutôt que de prendre le risque de se voir infliger une amende", souligne Romain Badouard.

Le gouvernement a également lancé un appel à mieux réguler les réseaux sociaux au niveau européen. Thierry Breton, le commissaire européen au Marché intérieur et au Numérique, doit présenter le 2 décembre une législation pour mieux réguler les plateformes.

Soft Power
1h 32
41 min