Haine en ligne : ils veulent lutter autrement que les GAFAM

Publicité

Haine en ligne : ils veulent lutter autrement que les GAFAM

Par
Lutter contre la haine et la désinformation tout en s'opposant aux plateformes et au(x) gouvernement(s) : c'est le combat des militants des libertés du net.
Lutter contre la haine et la désinformation tout en s'opposant aux plateformes et au(x) gouvernement(s) : c'est le combat des militants des libertés du net.
© Getty - Epoxydude

Les géants du net ont multiplié les initiatives pour lutter contre haine et désinformation cet été. Comptes bloqués, vidéos censurées, labels signalant les "médias affiliés à un État". Mais pour les promoteurs de l’internet libre, le problème est bien plus profond. Tour d'horizon de leurs solutions.

YouTube, Twitter, Facebook... Les grandes plateformes n’hésitent plus à intervenir désormais lorsqu’un contenu ne respecte pas les règles du réseau. L’ex humoriste Dieudonné en a fait les frais cet été, banni de YouTube en juin puis de Facebook et Instagram (propriété de Facebook) en août pour des publications se moquant des victimes de la Shoah. Aux États-Unis, les mêmes plateformes agissent au nom des mêmes principes contre Donald Trump, dont plusieurs publications ont été retirées pour propos mensongers ou appelant à la haine. À la veille de l’élection présidentielle américaine, les réseaux sociaux jouent aussi leur crédibilité après avoir été tant critiqués lors du précédent scrutin il y a quatre ans pour leur inaction face aux infox et aux ingérences étrangères.

Pourtant, toutes ces annonces ne convainquent pas les promoteurs de la liberté du net, qui considèrent les GAFAM comme la source du problème plutôt que comme une solution. Des militants qui n’attendent rien non plus de la part du gouvernement, dont ils contestent la politique dans ce domaine. En juin, ils avaient célébré comme beaucoup d’autres l’échec de la loi Avia contre la haine en ligne, quasi intégralement censurée par le Conseil constitutionnel car le texte portait atteinte à la liberté d'expression.

Publicité
Le Billet politique
3 min

Des méthodes inefficaces et un modèle économique toxique

“Le premier reproche que l’on fait aux GAFAM sur la modération des contenus, c’est que leurs méthodes ne fonctionnent pas”, lance Arthur Messaud, juriste à la Quadrature du Net, association qui défend les droits et les libertés des internautes. “Et c’est ce que nous reprochions aussi à la loi Avia, qui faisait croire aux victimes de la haine en ligne que les choses allaient s’améliorer pour elles, alors que ce texte ne faisait que renforcer le système actuel, reposant sur les grandes plateformes”. “La stratégie de Facebook, YouTube et consorts est la même depuis dix ans”, poursuit le juriste, “qui consiste à déceler et supprimer les messages haineux, mais la tache est trop immense ! Et au passage, les gouvernements cèdent un pouvoir régalien de répression et de censure à des multinationales extrêmement puissantes, ce qui est aussi très problématique. On est face à une démission démocratique concernant un pouvoir qui était auparavant soumis à la volonté populaire”.

Arthur Messaud cite souvent le même exemple pour illustrer l’inefficacité des grandes plateformes : l’attentat antimusulman de Christchurch, en Nouvelle Zélande, le 15 mars 2019. Le terroriste a filmé son attaque et l’a diffusé en direct sur Facebook où la vidéo a été partagée environ 1,5 million de fois par des utilisateurs. “Les algorithmes et les modérateurs de Facebook en ont retiré 1,2 million, ce qui fait 300 000 vidéos que le réseau n’a pas réussi à censurer !” Le juriste y voit la preuve d’une “défaillance totale” de la part du réseau “sur quelque chose d’aussi simple que de détecter des images !” Mais le constat ne l’étonne pas : “Facebook sait très bien qu’en mettant toute l’humanité au même endroit, cela créera des conflits. Dans l’Histoire, nous n’avons jamais eu d’espaces de discussion collective avec autant de gens et on ne sait pas du tout gérer ! Les Gafam auront beau améliorer leurs algorithmes ou embaucher toujours plus de modérateurs, ça ne marchera pas.”

Pour la Quadrature du Net, ces plateformes sont tout simplement trop grandes pour pouvoir lutter efficacement contre les contenus qui posent problème. Mais leur modèle économique est aussi en cause, estime Arthur Messaud : “Je pense vraiment que Facebook et les autres aimeraient trouver une solution à la haine en ligne et qu’ils sont de bonne foi. Mais ils sont dans une situation impossible avec un modèle qui repose sur l’attention des internautes : faire rester les gens le plus longtemps possible pour leur vendre de la pub ou des objets inutiles. On ne peut pas poursuivre cet objectif et offrir en même temps un climat apaisé aux utilisateurs ; c’est incompatible. Si le but de ces plateformes est de faire de l’audience, ils vont immanquablement mettre en avant des contenus conflictuels”.

Mais alors que propose la Quadrature du Net au juste ? De prendre exemple sur le reste d’internet, en dehors des grandes plateformes. “Si vous regardez ailleurs, vous trouvez des petits forums spécialisés où des gens se retrouvent pour parler de passions communes, ils ont des liens culturels communs et c’est beaucoup plus facile à modérer”, explique Arthur Messaud, qui cite aussi l’exemple de Wikipédia. “Ce site rassemble beaucoup de gens qui peuvent être en désaccord mais qui ont un but commun : écrire une encyclopédie de qualité, diffuser les savoirs… Et ils arrivent à gérer les conflits”.

Le Numérique est politique
15 min

Débattre sans violence sur internet : le contre-exemple Wikipédia

Willie Robert est contributeur régulier sur Wikipédia depuis 2006 et ancien membre du conseil d’administration de Wikimédia France. “Notre encyclopédie est-elle un contre-modèle ? Oui et non. De fait oui car Wikipédia est l’un des sites les plus consultés au monde (régulièrement dans le top 10 en terme de fréquentation) mais en même temps non car notre encyclopédie fonctionne sans publicité et repose entièrement sur des bénévoles pour la production et la modération des contenus. Nous sommes peut-être un contre-modèle mais il n’est pas exportable”.

Et pourtant, Wikimédia France fait partie des associations qui siège au nouvel observatoire de la haine en ligne, instauré par la loi Avia (ou ce qu'il en restait après son passage au Conseil constitutionnel). La première réunion a eu lieu en juillet au CSA (Conseil supérieur de l’audiovisuel) avec les grandes plateformes mais aussi des associations, des administrations ou des chercheurs. “Sur le sujet de la haine en ligne, nous sommes un modèle effectivement et on peut certainement apporter quelque chose au débat”, explique Willie Robert :

Notre vision repose sur l’intervention citoyenne. C’est un pari qui ne semble pas gagnable quand on regarde le monde tel qu’il tourne mais il l’est ! On trouve toujours plus de personnes bien intentionnées que le contraire et, de fait, l’édifice que l’on construit fonctionne, malgré les critiques.

La Méthode scientifique
58 min

Chez Wikipédia, tout lecteur, à condition de s’inscrire, peut se transformer en modérateur s’il voit un contenu dérangeant, diffamatoire ou une “fake news” : “Vous cliquez sur modifier et vous pouvez le retirer”, explique Willie Robert. Mais que se passe-t-il si la correction pose souci elle aussi ? “On a aussi nos problèmes, nos erreurs factuelles sur certains articles et les mêmes cas de propagation de fake news qu’ailleurs. Nous avons parfois des clashs terribles au sein de la communauté wikipédienne, des gens qui s’engueulent… Mais la mécanique fait qu’à la fin, le système est vertueux et lorsqu’on pense au problème de la propagation de la haine en ligne, on ne pense pas à Wikipédia !” 

En revanche, le fonctionnement du site ne va pas de soi et demande une grande organisation : “À côté des deux millions d’articles en langue française, il y a huit millions de pages d’organisation de l’encyclopédie et de pages de discussions, de pages utilisateurs, etc. Et avec le temps, une communauté émerge avec des gens qui finissent par se reconnaître entre eux : par leurs contributions, par leur bonne foi, etc.” C’est le cas de Willie Robert, qui contribue depuis quinze ans, et qui à ce titre a accès à des outils techniques supplémentaires : “Si une discussion s’envenime à propos d’un article, je peux par exemple bloquer le contenu d’une page, le temps que le débat aboutisse et éviter des yoyos infinis”.

Le point central et qui diffère des autres grandes plateformes, c’est que notre encyclopédie permet une unicité du traitement des sujets. Les gens n’ont pas d’autre choix que de se mettre d’accord pour arriver à un contenu car au final, il n’y aura qu’un seul article. Et c’est très différent de Facebook, Twitter ou Youtube où les discours sont complètement parallèles, sans discussion commune : il n’y a jamais d’interactions et en réalité, on enferme les gens dans des tunnels qui sont parallèles et qui ne mènent à quasiment rien de productif d’un point de vue des contenus. Sur Wikipédia, le débat est parfois rude et même très compliqué sur certains sujets mais nous sommes obligés d’arriver à un consensus qui la plupart du temps, est plutôt respectable.

Une histoire particulière, un récit documentaire en deux parties
59 min

Quitter les grandes plateformes

Des lieux civilisés existent donc sur internet, nous voilà rassurés. Mais La Quadrature du Net va plus loin et propose surtout d’en finir avec les plateformes telles qu’elle existent aujourd’hui. “Nous défendions le boycott auparavant mais ça n’était pas la bonne approche”, explique Arthur Messaud, “car le fait de quitter Facebook (par exemple) a un ‘coût social’ pour celui ou celle qui ferme son compte sur la plateforme. On n'a plus accès à ses contacts ou à ses anciens messages”.

L’association défend désormais ce qu’elle appelle “l’interopérabilité des plateformes”. Un article y est consacré sur son site. Il s’agirait d’une solution technique permettant à tout utilisateur de Facebook, Twitter, Youtube (etc.) de communiquer entre eux sans forcément être inscrit sur le site ou de quitter un site sans perdre ses anciens messages ou son réseau de connaissance. “Cela fonctionne comme ça depuis toujours pour les mails !”, lance Arthur Messaud. Une adresse Gmail peut en effet communiquer avec des comptes Outlook ou Wanadoo… “Cela paraît évident mais c’est ce que refusent Facebook ou Twitter”.

Lors du débat parlementaire sur la loi Avia, la Quadrature du Net avait déposé un amendement pour proposer l’interopérabilité mais il avait été rejeté par le gouvernement. En juin 2019, le secrétaire d’État au Numérique Cédric O s’était montré très prudent sur le sujet, évoquant une mesure “excessivement agressive” pour le modèle économique des grandes plateformes. Avec un tel dispositif, “on ne règle pas le problème” de la haine en ligne, “on permet juste à la victime de partir”. Mais c’est un “vrai sujet” complétait le secrétaire d’État.

Hashtag
4 min

Contre la haine et les infox : pas une, mais des mesures

“Le problème de la haine en ligne est global”, explique Romain Badouard, maître de conférences en sciences de l’information et de la communication à Paris II, auteur de Le Désenchantement de l’internet. “Les propositions, notamment techniques, de ces militants des libertés numériques sont une partie de la solution. Mais lorsqu’ils parlent des grandes plateformes comme des pompiers pyromanes, c’est à la fois exagérée et en même temps, cela montre bien que la haine en ligne est lié à un problème plus global :  le fonctionnement de l’économie de l’attention qui a tendance à faire remonter les contenus ‘qui clashent’, violents, agressifs, voire parfois haineux pour conquérir de l’audience”.

Pour éviter que le modèle économique des grandes plateformes prospère sur les failles de la psychologie humaine, Romain Badouard mène aussi une réflexion sur le design de ces sites : “L’incitation au ‘like’, au retweet ou encore le fonctionnement des algorithmes de recommandation, par exemple. Le travail de pacification peut aussi se faire comme cela”, remarque Romain Badouard qui cite les nombreuses initiatives prises par les plateformes : partenariat avec des associations, avec des journalistes, en embauchant des modérateurs, en développant aussi la détection automatique des contenus problématiques...

On touche au nœud du problème puisque cela revient à toucher à la poule aux œufs d’or pour les plateformes. Mais on voit quand même que certaines ont pris des mesures concernant ce fonctionnement du design de leur site. On voit par exemple Facebook qui, avec Instagram, fait des expérimentations en supprimant la comptabilisation du nombre de 'like'. On voit aussi la manière dont YouTube a modifié l'algorithme de recommandation de ses vidéos pour 'dégrader les contenus' qui peuvent être agressifs, voire haineux. Le design des plateformes constitue clairement un levier sur lequel on peut jouer.                       
Romain Badouard, maître de conférences en sciences de l’information et de la communication à Paris II.

Du Grain à moudre
39 min
Hashtag
5 min