Passer au contenu

Comprendre la loi de lutte contre la cyberhaine en cinq questions 

La proposition de loi visant à lutter contre la haine en ligne est en examen à l’Assemblée nationale depuis mercredi 3 juillet. Notre éclairage en cinq points pour mieux appréhender les enjeux d’un texte qui font se poser de nombreuses questions dans le monde numérique.

Après dix-huit de mois de travail, c’est l’heure de vérité pour la proposition de loi (PPL) visant à « lutter contre la haine sur Internet », portée par la députée LREM Laetitia Avia. Le texte vient d’entrer mercredi 3 juillet en débat à l’Assemblée nationale. A l’issue de l’examen, les députés voteront la loi mardi 9 juillet.

Bien que la PPL provoque d’importants débats au sein du monde numérique, son adoption dans l’Hémicycle ne devrait pas être problématique. Suivant la procédure parlementaire accélérée, le texte devrait être examiné par le Sénat à l’automne prochain. La mise en application de la loi est, elle, prévue pour le début de l’année 2020. Les dispositions seront immédiates. Retour en cinq questions pour tout comprendre de la future loi.

Comment se définit la « haine en ligne » ?

Dans le texte législatif, les contenus identifiés comme haineux se définissent comme « injurieux ou incitant à la haine à raison de la prétendue race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle, de l’identité de genre ou du handicap d’une personne ou d’un groupe de personnes ». Après examen en Commission de loi, la définition s’est élargie comprenant, désormais, « la traite des êtres humains, le proxénétisme, la mise à disposition de contenus pornographiques aux mineurs ou encore l’apologie du terrorisme ».

Les trois principaux lobbys numériques, l’Association des Services Internet Communautaires (Asic), Tech in France et Syntec Numérique, qui signent un communiqué commun, dénoncent néanmoins une définition au « périmètre beaucoup trop large » qui compromettrait l’efficacité de la loi.

En plus de ces messages « manifestement illicites », subsistent des contenus « gris » selon l’expression du secrétaire d’État chargé du Numérique, Cédric O, qui soulèvent des interrogations. Le gouvernement assure qu’un groupe de travail pluridisciplinaire sera mis sur pied pour aider les plates-formes à appréhender ce phénomène diffus, évolutif et protéiforme.

Qui concerne-t-elle ?

« La loi repose sur un triptyque de responsabilisation : des plates-formes, des auteurs des messages et de la société civile », explique Laetitia Avia. Le texte est toutefois majoritairement focalisé sur l’encadrement du rôle des opérateurs en ligne.

Pour en finir avec l’« impunité » sur Internet, les réseaux grand public (Facebook, Twitter, YouTube) mais aussi les moteurs de recherche (Google, Bing, etc.) devront supprimer les messages haineux signalés par les utilisateurs en moins de 24 heures. Ce délai prompt et rigide représente la principale innovation du texte.
À l’heure actuelle, la loi pour la confiance dans l’économie numérique (LCEN), en vigueur depuis 2004, n’exige le retrait des contenus manifestement illicites que dans un délai proportionné à la gravité du contenu, aux conséquences et à l’ampleur de sa diffusion. Le temps de retrait s’adapte en fonction de l’infraction.

Côté utilisateur, la PPL prévoit la mise en place ultérieure d’un parquet spécialisé dans le numérique, articulé avec la possibilité de porter plainte en ligne, d’ici le début de l’année 2020. Il s’agit de traiter de manière spécifique les infractions qui ont lieu sur Internet.

Quelles sont les sanctions prévues ?

Si les plates-formes ne respectent pas le délai de 24 heures, elles encourent une amende qui peut atteindre 4% de leur chiffre d’affaires mondial selon la « gravité et le caractère réitéré » des infractions – sans autres précisions pour l’instant. Le montant peut donc s’élever à quelques milliards d’euros. Prenons le cas de Facebook, dont le chiffre d’affaires de 2018 est estimé à 56 milliards de dollars, l’amende pourrait être évaluée à plus de 2 milliards de dollars.

Outre la sanction administrative, les députés ont rajouté en commission un délit pénal. Si un réseau social refuse de supprimer un contenu alors qu’il aurait dû le faire, son responsable légal sera passible d’une amende de 250 000 euros et d’un an d’emprisonnement.

C’est le Conseil supérieur de l’audiovisuel (CSA) qui sera l’autorité administrative chargée de contrôler la bonne application de cette législation par les entreprises du secteur des nouvelles technologies. Quid du juge ? Les détracteurs du texte alarment sur l’absence d’une autorité judiciaire dans le processus de contrôle de légalité de tel ou tel contenu, jusqu’à y voir les prémices d’une privatisation de la justice ?

Le texte n’évoque pas spécifiquement les sanctions relatives aux auteurs des messages haineux.

Qu’en pensent les plates-formes ?

Les réactions au sein des plates-formes sont plutôt mitigées, exception faite de Twitter. La responsable des affaires publiques de la branche française, Audrey Herblin-Stoop, se dit dans une interview publiée dans Le Monde, mardi 2 juillet, être « en phase » avec la proposition de loi Avia. Audrey Herblin-Stoop soutient la députée LREM depuis la première heure.

Chez Facebook, pourtant grand allié du gouvernement français, une once d’inquiétude point. Une crainte relative aux 24 heures de retrait partagée avec ses paires. Les entreprises du numérique considèrent que ce délai de retrait très court pourrait les pousser à prendre des décisions trop rapidement.
Selon Guiseppe de Martino, le président de l’Asic, il faut que « les hébergeurs conservent une neutralité absolue » pour éviter tout risque de « sur-modération ».
Malgré les promesses d’augmentation de moyens et de soutien du gouvernement, elles aussi déplorent l’absence d’une autorité judiciaire. L’Asic critique également sur Twitter un amendement de l’article 6 qui viserait à faire du CSA une « boîte noire » de tout ce qu’il se passe sur Internet.

Y-a-t-il un risque de « censure » ?

« Le doute bénéficierait à la censure ». C’est ce que craint dans son rapport sur le texte initial le Conseil National du Numérique (CNNum). La rigidité du délai de retrait et les sanctions pécuniaires qui y sont liées pourraient participer à la suppression de contenus pourtant légitimes et licites.

Lors des discussions à l’Assemblée, la députée LREM devrait essayer de répondre au risque de censure abusive en ajoutant aux obligations des plates-formes celle d’un examen préalable de tout signalement. Un poids public qui pèse un peu plus sur les sociétés privées. 
Dans une tribune publiée mercredi 3 juillet dans Le Monde, Salwa Toko, présidente du CNNum, appelle à amender le texte pour ne pas laisser la justice aux seules prérogatives des plates-formes. 

De son côté, la Quadrature du Net alerte sur le risque de limitation de la liberté d’expression. Selon l’association de défense des libertés numériques, les 24 heures seraient un outil de « censure politique ». Ce court délai permettrait aux autorités par le biais des signalements de faire disparaître des contenus licites qui « vexeraient le pouvoir exécutif ».

L’ensemble des acteurs du numériques – qu’ils soient privés, associatifs ou même consultatifs – mettent en garde face à une loi qui pourrait être dangereuse pour les libertés individuelles. Ces interrogations s’ajoutent au manque de moyens des instances judiciaires pour faire appliquer les lois déjà existantes et invitent à une réflexion : quelle est la nécessité d’une loi spécifiquement focalisée sur la haine en ligne, si elle reprend celles déjà en place dans la vie réelle ? Plus préoccupant encore, quelle est sa véritable utilité si elle ne permet pas de renforcer les moyens déjà existants mais, au contraire, affaiblit le pouvoir judiciaire au profit des plates-formes ? Si la proposition de loi en l’état semble pécher encore par bien des aspects, le coup de communication, lui, semble réussi. 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Marion SIMON-RAINAUD