Une étude montre comment TikTok met en avant des vidéos relatives au suicide et aux troubles alimentaires
Par La rédaction numérique de France Inter
Le Centre de lutte contre la haine en ligne (CCDH), une organisation américaine, montre dans une étude que l'algorithme du réseau social TikTok favorise la diffusion de contenus relatifs aux troubles alimentaires et à l'automutilation pour certains comptes.
Dans un rapport publié jeudi, le Centre de lutte contre la haine en ligne (CCDH) met en cause le système de recommandations de vidéos sur le réseau social TikTok, particulièrement populaire auprès des jeunes. Celui-ci propose très rapidement et de façon massive des contenus relatifs à la perte de poids, voire au suicide, selon le comportement des utilisateurs, y compris très jeunes.
Lames de rasoirs et hashtag #suicide
Pour mener leur étude, le CCDH a créé huit faux comptes d'adolescent.e.s de 13 ans (l'âge minimum pour s'inscrire sur la plateforme) aux États-Unis, au Royaume-Uni, au Canada et en Australie. Avec ces nouveaux comptes, les chercheurs se sont arrêtés quelques secondes sur des publications relatives à l'image de soi et à la santé mentale et les ont aimés ("likés"), ignorant tous les autres types de contenus.
Résultat : au bout d'un peu plus de deux minutes, l'algorithme de TikTok leur proposait plus de vidéos relatives au suicide, c'est-à-dire présentant des rasoirs, des automutilations, évoquant le suicide ou les overdoses ou encore taguées #sh (acronyme de "self harm", "automutilation"). Au bout de huit minutes, l'utilisateur s'est vu proposer des contenus sur les troubles alimentaires. Enfin, toutes les 39 secondes, le réseau social recommandait des vidéos sur l'image de soi et la santé mentale. Ces recommandations étaient encore plus massives (12 fois plus de vidéos sur ces thèmes) pour les faux comptes avec un pseudo laissant croire à une vulnérabilité de l'utilisateur. Par exemple avec "perte de poids" dans son pseudonyme.
Ainsi, le flux de ces adolescents est rempli d'un contenu "nocif, atroce, qui peut présenter un impact dévastateur sur leur compréhension du monde qui les entoure et de leur santé physique et mentale", dénonce Imran Ahmed, le directeur de l'organisation. Il pointe le fait que TikTok fonctionne grâce à un algorithme qui établit un flux spécial "Pour Toi", avec des recommandations personnalisées. L'association s'alarme du fait qu'il existe une véritable "communauté relative aux troubles alimentaires", qui cumule plus de 13 milliards de vue de vidéos, aux hashtag conçus pour déjouer la modération.
Échec de la modération ?
L'étude met donc en lumière l'échec de la modération de la plateforme. En effet, dans ses "règles communautaires", TikTok fixe un certains nombres de limites. Parmi elles, l'interdiction des "contenus qui évoquent, encouragent, banalisent ou glorifient des activités qui pourraient conduire au suicide, à l'automutilation ou à des troubles alimentaires", est-il écrit. Cependant, le réseau social invite ses membres "à partager leurs expériences personnelles sur ces questions dans un esprit constructif et sûr afin de sensibiliser le public et d’encourager le soutien de la communauté".
D'après l'association, les législateurs des différents pays doivent donc exiger de ces plateformes qu'elles "intègrent la sécurité dès la conception", mais aussi qu'elles soient plus transparentes sur leurs algorithmes. Il faut aussi que ces réseaux sociaux soient "responsables de la non-application de leurs conditions d'utilisation et des dommages qu'ils engendrent".
De son côté, TikTok a évoqué une étude biaisée, estimant que sa méthodologie ne correspondait pas aux pratiques réelles des utilisateurs de TikTok. "Nous consultons régulièrement des experts de la santé, supprimons les violations de nos politiques et donnons accès à des ressources de soutien à toute personne qui en a besoin" , indique TikTok dans un communiqué relayé par "Le Monde", qui précise que le réseau social conteste la méthodologie de l'enquête.