Passer au contenu

Comment YouTube compte juguler la désinformation dans ses vidéos

Intelligence artificielle, fact-checking, restrictions fonctionnelles… La plate-forme vidéo explore de nouvelles pistes pour contrer une désinformation qui devient de plus en plus rapide et protéiforme

Pour les équipes de YouTube, les phénomènes de désinformation constituent un problème, car ils prennent de l’ampleur et sont de plus en plus protéiformes. « Pendant un certain nombre d’années, le paysage de la désinformation en ligne a été dominé par quelques récits principaux, comme le mouvement pour la vérité du 11 septembre, les théories conspirationnistes sur le programme Apollo ou les théories de la Terre plate (…) Mais de plus en plus, des récits complètement nouveaux peuvent rapidement surgir et gagner des vues », explique Neal Mohan, dans une note de blog.

Un exemple frappant de cette accélération de la désinformation est la théorie de la diffusion du coronavirus par les antennes 5G. Cette fausse information est apparue d’un coup, s’est diffusée comme une traînée de poudre et a rapidement mené à des actions de sabotage, notamment au Royaume-Uni. Autre problème : certaines « fake news » peuvent être très locales et profondément ancrées dans la culture d’un pays ou d’une région. Ce qui ne facilite ni sa détection ni son élimination.

A découvrir aussi en vidéo :

 

Comment faire face à cette désinformation, alors que plus de 500 heures de contenus vidéos arrivent sur YouTube toutes les minutes ? La filiale de Google veut jouer sur plusieurs tableaux. Tout d’abord, elle compte évidemment muscler l’apprentissage de ses algorithmes d’intelligence artificielle, en les nourrissant avec encore plus de données issues de davantage de langues. L’objectif étant de repérer plus rapidement une diffusion virale d’une vidéo potentiellement problématique.

Pour casser la viralité d’une telle vidéo, YouTube va non seulement réduire son apparition dans les suggestions d’autres vidéos, mais également proposer à ceux qui la regardent des contenus officiels qui viennent rétablir les faits. Cela peut être, par exemple, des vidéos d’une agence de santé quand il s’agit d’un sujet médical. Si un tel contenu officiel n’existe pas, la plateforme peut aussi afficher des liens vers des articles ou des analyses de fact-checking réalisés par des médias de confiance.

Faut-il supprimer le partage ?

D’autres réflexions sont en cours, comme l’intégration d’écrans interstitiels pour alerter l’utilisateur sur le caractère douteux de la vidéo ou, encore plus radical, la désactivation de la fonction de partage. « Mais nous nous demandons si empêcher les partages ne va pas trop loin dans la restriction des libertés d’un spectateur (…) Le partage d’un lien est un choix actif qu’une personne peut faire, distinct d’une action plus passive comme regarder une vidéo recommandée », souligne Neal Mohan.

Enfin, YouTube va multiplier les partenariats avec des acteurs locaux capables d’apporter au service la compétence nécessaire pour savoir quel contenu est suspect ou « borderline », et lequel ne l’est pas. Car il n’y a pas de règle universelle. Dans certains pays, l’audiovisuel public est parfaitement respectable et équilibré, dans d’autres, c’est une fabrique de propagande. L’émergence d’un contenu de désinformation dépend aussi beaucoup du contexte politique, culturel et historique. Autant de facteurs qui sont difficiles de gérer de manière automatique par des algorithmes.

Source: YouTube

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Gilbert KALLENBORN