Publicité

Des vidéos d’information peuvent-elles "vacciner" contre les fake news ?

Par
Les "fake news" sont favorisées par certains algorithmes qui les rendent plus virales
Les "fake news" sont favorisées par certains algorithmes qui les rendent plus virales
© AFP - Mauro PIMENTEL

Une expérience scientifique menée par des laboratoires britanniques, australiens et américains montre que des utilisateurs, exposés à des vidéos qui déconstruisent les techniques de désinformation, font plus attention par la suite. Mais selon d'autres scientifiques, cela ne suffit pas.

Suffit-il de regarder des vidéos expliquant les mécanismes des fausses informations pour y faire plus attention ? C’est ce que semble montrer une étude menée par plusieurs laboratoires sur "l’inoculation psychologique" contre les fausses informations. Un peu à la manière d’un vaccin, l’idée est d’exposer un individu à un contenu (en l’occurrence, une vidéo), qui présente un mécanisme de manipulation pour immédiatement le déconstruire ensuite.

Des vidéos de décryptage

Les premiers résultats de l’étude ont été publiés fin août dans la revue scientifique "Science Advances" (un dérivé de la célèbre revue "Science") : "Nous avons développé cinq vidéos qui inoculent les gens contre les techniques de manipulation communément usées dans la désinformation, à savoir le langage basé sur les émotions, l’incohérence, les fausses dichotomies, l’utilisation des bouc-émissaires et les attaques ad hominem", explique l’article. "Dans sept études, six études randomisées et une septième sur YouTube, nous avons observé que ces vidéos amélioraient la reconnaissance des techniques de manipulation", peut-on aussi lire.

Publicité

Toutes les vidéos fonctionnent de la même manière : elles commencent par exposer, d’entrée de jeu, un exemple de manipulation ("Si vous n’arrêtez pas de regarder les médias mainstream, TOUS LES CHIOTS VONT MOURIR"), avant de lui donner un nom (la fausse dichotomie, en l’occurrence) et de le décrypter. La vidéo se clôt par une séquence montrant l’exemple dans une œuvre de la pop culture : South Park, Les Simpsons ou Star Wars y passent (dans notre exemple, c’est le dilemme soumis par Anakin Skywalker à Obi-Wan Kenobi : "Soit tu es avec moi, soit tu es mon ennemi").

Pour afficher ce contenu Youtube, vous devez accepter les cookies Publicité.

Ces cookies permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d'intérêt.

Des incohérences deux fois mieux démasquées

Les conclusions de l’étude sont catégoriques : dans tous les cas, montrer ces vidéos aide à mieux identifier ces techniques de manipulation par la suite. En tout, 6 464 personnes ont participé à l’expérience en tant que cobayes : l’expérience est randomisée en double aveugle, c’est-à-dire que la moitié des personnes a regardé les vidéos de déconstruction (conçues par le laboratoire Jigsaw, qui dépend de Google), et l’autre moitié a regardé des vidéos totalement neutres.

46 min

Exposées ensuite à dix informations dont cinq sur lesquelles une technique de manipulation a été utilisée, les personnes qui avaient vu les "bonnes" vidéos ont su 1,6 fois plus facilement identifier les messages comportant un vocabulaire jouant sur les émotions, 1,95 fois mieux identifier des faux dilemmes et 2,14 fois plus voir les incohérences. L’expérience, menée de façon similaire sur YouTube, a donné les mêmes résultats. "Ces effets sont robustes quel que soit le positionnement politique, et sur une grande variété de variables", explique l’étude.

Pour afficher ce contenu Youtube, vous devez accepter les cookies Publicité.

Ces cookies permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d'intérêt.

"Situations artificielles"

Toutefois, il y a des limites à l’étude : dans le journal "Le Monde", le chercheur Sebastian Dieguez souligne que l’idée d’une inoculation psychologique "est similaire dans la forme à celle utilisée pour communiquer dans les milieux complotistes" et met en garde contre des "situations artificielles, avec des personnes prévenues qui doivent jauger des messages", induite par cette étude.

8 min

Par ailleurs, elle ne tient pas compte du rôle des algorithmes qui ont tendance, comme d'autres études l'ont prouvé notamment dans les premiers mois de la pandémie de Covid-19, à rendre les fausses informations, ou en tout cas celles qui utilisent des techniques de manipulation, plus virales. Par ailleurs, l'étude ne précise pas, à ce stade, combien de temps "l'inoculation" fait encore effet après que le public a été exposé aux vidéos de sensibilisation.