Passer au contenu

Twitter va identifier les contenus falsifiés ou manipulés grâce à un label

La modération des contenus falsifiés est un enjeu de plus en plus présent sur les réseaux sociaux. D’ici un mois, Twitter instaurera une réglementation pour limiter leur diffusion. 

Ce n’est pas dans son ADN, mais Twitter a décidé de signaler les fausses informations diffusées par des vidéos et/ou des images truquées sur son réseau. À partir du 5 mars 2020, la plate-forme va indiquer lorsqu’un média est manipulé ou artificiel.

À quoi ressemblera Twitter ?

La « nouvelle règle » va permettre au réseau social d’appliquer un label sur le Tweet en question afin d’éviter toute confusion. L’objectif est de contextualiser les contenus partagés. Twitter va donc avertir les Tweetos avant qu’ils ne retweetent ou n’aiment tel ou tel post.
Pour aller plus loin, la plate-forme américaine s’engage à « fournir des explications ou des précisions supplémentaires, le cas échéant, comme une page d’accueil avec plus de contexte ». 
Sans les supprimer, le réseau aura la possibilité de réduire la visibilité du Tweet et même d’empêcher qu’il soit recommandé. 

Des mesures grâce à une « participation collégiale »

Très libertaire dans sa vision de l’expression en ligne, Twitter a annoncé cette mesure après une consultation de ses utilisateurs lancée à l’automne dernier, à échelle planétaire grâce au #TwitterPolicyFeedback. Au niveau mondial, plus de 70% des personnes qui utilisent Twitter ont déclaré qu’il serait inacceptable de « ne pas agir ». Selon neuf personnes interrogées sur dix, ce type de contenu trompeurs doit être étiqueté.

Si l’avertissement et le complément d’information font consensus la suppression des tweets convainc moins. Aux États-Unis, une courte majorité (55%) des interrogés a répondu qu’il serait acceptable de retirer tous ces médias, évoquant les risques sur la liberté d’expression et la censure. Néanmoins, plus de 75% des gens pensent que les comptes qui partagent des médias modifiés et trompeurs devraient faire l’objet d’actions : soit la suspension de leur compte, soit leur suppression. 

90% pro-suppression si les préjudices sont imminents

Toutefois, « si le contenu est susceptible de causer des dommages, il doit être supprimé », résume la note de blog de Twitter. Selon leur étude, plus de 90% des répondants sont favorables à ce que Twitter supprime ce contenu «lorsqu’il est clair qu’il est préjudiciable ». Entrée dans la zone grise. 

Mais alors que signifie « clair » ? Pour bien les identifier, Twitter a identifié trois types de dommages. D’abord, « les menaces pour la sécurité physique d’une personne ou d’un groupe », mais aussi les « risques de violence de masse ou de troubles civils généralisés » propagés sur le réseau social. 

La concrétisation de l’Appel de Christchurch ?

Enfin, la société veut sanctionner toute tentative de « harcèlement ou attention non désirée et obsessionnelle ; contenu ciblé comprenant des tropes [figure de style, NDLR], des épithètes ou du matériel visant à faire taire quelqu’un ; suppression ou intimidation des électeurs ». 
Ces mesures font échos à l’Appel de Christchurch signé en mai dernier par une vingtaine de pays, au premier rang desquels la France, avec les géants du numérique, dont Twitter. 

Même si la « labellisation » ne concerne pas directement le corps du texte en 280 caractères s’il n’est pas accompagné d’un média, le chantier est immense.  

« Cette mise en place sera un défi et nous risquons de faire des erreurs mais nous vous demandons de faire preuve de patience […] nous sommes déterminés à faire les choses correctement », prévient Twitter. 

Source : Twitter

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Marion Simon-Rainaud