Passer au contenu

Haine en ligne : les plateformes ont encore du chemin à parcourir, estime l’Arcom

L’autorité de régulation a publié lundi 24 juillet un bilan en demi-teinte des moyens mis en œuvre par 13 grandes plateformes en ligne dont font partie TikTok, Google, Twitter, Dailymotion, ou encore Wikipédia. Les progrès de transparence et de modération sont là, mais il reste du chemin à parcourir, dit en substance l’Arcom, un mois avant la date butoir du 25 août, date d’application du DSA, le Digital Services Act.

Manque de transparence, des cases qui restent à remplir… Les plates-formes ont encore des progrès à faire en matière de modération et de lutte contre la haine en ligne : c’est le message de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) qui a publié lundi 24 juillet un bilan des efforts faits par les plates-formes en ligne en la matière. Un mois avant l’application du DSA, le « Digital Services Act » qui obligera les géants du numérique à respecter une avalanche de nouvelles obligations, l’objectif était de mesurer où ces derniers en sont dans leur combat contre les messages haineux. 

Pour répondre à cette question, l’Arcom a demandé à 13 grandes plates-formes dont la fréquentation était supérieure à 10 millions de visiteurs mensuels en France – comme Meta, Google, TikTok, Snapchat ou encore Wikipédia – de répondre à un questionnaire. Elle a aussi indiqué avoir mené des observations, et échangé avec l’Observatoire de la haine en ligne avant de publier ses résultats. 

https://twitter.com/Arcom_fr/status/1683466165987819522

« On sent une certaine fébrilité. Toutes les plates-formes ont changé de braquet »

La majorité des entreprises visées par cette enquête se trouvent en effet dans une période de transition. Elles doivent à compter du 25 août prochain respecter les dispositions du DSA, sous peine de devoir payer une amende salée pouvant aller jusqu’à 6 % du chiffre d’affaires mondial. Elles pourraient même avoir à suspendre temporairement leur service sur le vieux continent. Parmi ses nouvelles obligations, elles devront notamment expliquer comment fonctionnent leur modération – et si elle n’est pas jugée suffisante, elles seront contraintes d’y remédier. Elles devront également analyser tous les ans « les risques systémiques » provoqués par leur service, ce qui implique de répondre aux questions suivantes : les contenus diffusés sur leur plate-forme mettent-ils en danger les droits fondamentaux des utilisateurs ? La société en question lutte-t-elle contre la désinformation, la haine et la violence en ligne ? Elles devront enfin, après avoir fait un état des lieux, adopter des correctifs, si besoin.

Or, il se trouve qu’en amont de cette nouvelle législation européenne, ces géants du numérique doivent respecter en France une loi de 2021 qui les oblige déjà à lutter contre la haine en ligne : une sorte d’avant-goût du DSA qui a permis à l’Arcom de prendre la température côté entreprises. Et dans cette période transitoire, il leur reste du chemin à parcourir, même si « on sent une certaine fébrilité. Toutes les plates-formes ont changé de braquet et elles sont mobilisées en ce moment, et même si l’échéance est fin août, on voit d’ores et déjà des signaux avancés de mise en conformité avec le DSA », constate Benoît Loutrel, membre du collège de l’Arcom, lors d’une conférence de presse lundi 24 juillet.

Mais « encore des cases qui doivent être remplies »

TikTok a ainsi ouvert en Europe un programme d’accès à ces données pour les chercheurs européens, YouTube a modifié ses paramètres pour que les utilisateurs sans compte n’aient pas accès aux contenus réservés aux plus de 18 ans par défaut.  Mais « s’il y a des progrès importants, et si les acteurs travaillent ardemment à préparer le règlement fin août », on reste « impatient aussi de voir les résultats, parce qu’il y a encore des cases qui doivent être remplies », des sociétés n’ayant soit pas répondu aux questions, soit invoqué le secret des affaires, a souligné Benoît Loutrel.  

Pour preuve : presque toutes les sociétés ont botté en touche lorsqu’elles ont été interrogées sur les moyens humains de modération – un gage de modération plus efficace que des bots puisque ce sont souvent eux qui vont trancher les contenus problématiques signalés par les utilisateurs. Juridiquement, les plates-formes en ligne comme les réseaux sociaux, les moteurs de recherche ou encore les sites de e-commerce sont considérées comme des hébergeurs de contenus et non des éditeurs – ce qui signifie qu’elles ne sont pas responsables du contenu publié par les utilisateurs. Néanmoins, elles sont tenues de supprimer les posts manifestement illicites a posteriori, ces derniers pouvant être signalés par des utilisateurs, des « signaleurs de confiance » ou encore des autorités. Et sur ce point, l’Arcom regrette un manque de transparence. « On a souvent un refus global de refuser de communiquer sur le nombre, la localisation et la langue de travail des modérateurs », a déploré Lucile Petit, qui dirige à l’Arcom la direction des plate-formes en ligne. 

Un manque de transparence sur les chiffres et les modérateurs humains

De nombreux chiffres ont été donnés sous le sceau de la confidentialité, ce qui signifie que l’Arcom n’est pas en mesure de les divulguer, d’où la présence de nombreux marquages noirs dans les réponses du questionnaire. Seules quatre sociétés ont accepté de jouer le jeu de la transparence sur ce point précis des modérateurs humains – Wikipédia, Dailymotion, LinkedIn et Twitter. Et seul Twitter a expliqué employer 149 personnes dédiées au traitement des violations des règles de la plate-forme en Europe, dont des francophones – sans donner plus de précisions.

Autre problème : les utilisateurs ont parfois du mal à trouver où signaler des contenus qui leur paraissent illicites. Sur YouTube et Snapchat, il faut cliquer sur des onglets comme « À propos » pour le premier, et « Gérer l’amitié » pour le second : ces intitulés n’indiquent en rien qu’il s’agit d’une page de signalement.  L’Arcom montre aussi des chiffres surprenants, comme le fait de revenir sur des décisions de modération. Il s’agit des cas où, après avoir pris une décision de retrait par exemple d’un contenu suite à un signalement, la plate-forme revient finalement sur sa décision et change d’avis : cela arriverait dans 40 % des cas pour TikTok. Qu’est-ce que cela signifie ? Cela démontre-t-il une « surmodération » ou un problème de fonctionnement de la modération ? Ce point reste à creuser, dit en substance l’Arcom. 

À lire aussi : Inapplicable, inefficace… Le bannissement des cyberharceleurs des réseaux sociaux sous le feu des critiques

Mais la grande question est de savoir si ces plates-formes arriveront à être conformes au DSA dès le 25 août, puisque tout est loin d’être parfait. Cette date sera « le début d’un processus. Il y aura une période de montée en puissance, mais je ne suis pas convaincu qu’il y aurait une période de grâce », a précisé Benoît Loutrel, membre du collège de l’Arcom. Car dans la balance, c’est la crédibilité du DSA et de la Commission européenne qui est en jeu, a-t-il ajouté. Rendez-vous donc dans un mois pour « l’heure de vérité ».

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Communiqué de presse de l'Arcom du 24 juillet 2023


Stéphanie Bascou