Passer au contenu

L’algorithme de TikTok au cœur d’une plainte après le suicide d’une adolescente

Une plainte, qui vise TikTok et son algorithme de recommandation, a été déposée devant le parquet de Toulon après la mort d’une jeune femme de 15 ans. Ses parents estiment que le contenu proposé par le réseau social a accéléré le passage à l’acte de la jeune femme. Jusqu’à présent, les plateformes, en tant qu’hébergeur, bénéficient d’un régime de responsabilité limitée quant aux contenus diffusés sur les réseaux sociaux. Mais le rôle des algorithmes, qui mettent en avant certains contenus et pas d’autres, remet de plus en plus en question cette responsabilité limitée.

L’algorithme de TikTok a-t-il sa part de responsabilité dans le suicide d’une adolescente ? Deux ans après la mort de leur fille de 15 ans, Marie, les parents de la jeune femme ont porté plainte contre TikTok, le réseau social préféré des adolescents, relate Franceinfo le lundi 18 septembre. Ils pointent notamment du doigt l’algorithme de la plateforme chinoise, qui aurait accéléré le passage à l’acte de leur fille.

Tout serait parti d’une vidéo publiée par l’adolescente, dans laquelle la jeune femme faisait part de son mal-être et de son harcèlement scolaire, notamment dû à son poids. Marie aurait été alors submergée de contenus négatifs liés à l’automutilation et au suicide, explique son avocate, Maître Laure Boutron-Marmion, au micro de RMC ce mardi 19 septembre. Résultat, la plateforme est accusée de « provocation au suicide », de « non-assistance à personne en péril » et de « propagande ou publicité des moyens de se donner la mort ». La plainte a été déposée devant le parquet de Toulon le 8 septembre dernier, précisent nos confrères. 

Les plateformes ne sont pas responsables des contenus postés par les utilisateurs

Si cette affaire constitue une première en France, ce n’est pas la première fois que TikTok est visé par de telles accusations. Au Royaume-Uni l’année dernière, la plateforme a été jugée pour des faits similaires après le suicide d’une jeune fille de 14 ans. Les juges avaient tranché en faveur des parents de l’adolescente, ce qui reste pour l’instant une exception. Les plateformes, considérées comme des hébergeurs, ne sont pas considérées comme responsables des contenus postés par les utilisateurs, que cela soit en Europe ou aux États-Unis. Et si ces sociétés ont bien l’obligation de retirer les contenus « manifestement illicites » comme des contenus terroristes ou des incitations à la violence, s’ils ont été signalés, ce n’est pas le cas des vidéos évoquant le mal-être ou le harcèlement.

Problème : ce régime juridique, très favorable aux réseaux sociaux, a été conçu dans un monde où l’algorithme des plateformes – qui décide de mettre en avant ou de suggérer tel type de contenu – n’existait pas encore, ou n’avait pas un rôle si important. Récemment, la Cour suprême aux États-Unis aurait pu changer cette règle qui date, outre Atlantique, de 1996. Dans cette affaire, les magistrats devaient juger de la responsabilité de YouTube dans la radicalisation des terroristes des attentats de Paris de novembre 2015. Au cœur de cette plainte déposée par des proches d’une victime, se trouvaient des vidéos de propagande de l’État islamique qui étaient diffusées sur la plateforme, via son algorithme. Mais en mai 2023, les juges ont choisi de ne pas remettre en cause l’immunité dont bénéficient les plateformes du Web, pour l’instant.

L’algorithme peut très vite enfermer les utilisateurs dans une bulle négative

Mais ce régime juridique est de plus en plus contesté, notamment en raison de l’algorithme – bien créé par le réseau social en question – qui va décider de la mise en avant des contenus proposés, et de leur nature, sur un fil d’actualités.

En 2021, une enquête du Wall Street Journal montrait à quel point cet algorithme peut très vite enfermer les utilisateurs dans une thématique toujours plus précise, une sorte de niche de contenus, une bulle. Une personne mélancolique verra apparaître majoritairement des vidéos sur la tristesse et la dépression au bout d’une seule journée, écrivaient nos confrères.

À lire aussi : Comment l’algorithme de TikTok joue sur nos émotions pour nous rendre accro

Or, cet enfermement peut être extrêmement dangereux, souligne Justine Atlan, la directrice de l’association E-enfance, interrogée par Sud Radio ce mardi 19 septembre : « Les outils TikTok connaissent le cerveau humain mieux que personne, et utilise nos fragilités pour nous garder à tout prix. L’enfermement algorithmique est extrêmement toxique ».

À lire aussi : Comment les réseaux sociaux détruisent la santé mentale des enfants et des adolescents

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Franceinfo


Votre opinion
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *