Passer au contenu

Présidentielle 2022 : la France est-elle vraiment mieux armée face à la désinformation ?

L’État dispose d’un nouvel arsenal législatif et administratif pour lutter contre les fake news. Mais son efficacité est encore loin d’être assurée, compte tenu du caractère changeant de la menace.

Depuis l’élection présidentielle américaine de 2016, un spectre plane sur chaque nouvelle élection : celui de la manipulation de l’information. L’élection présidentielle française de cette année, ainsi que les élections législatives, n’échappent bien sûr pas à cette tendance.
En 2017, le boulet de la désinformation n’est pas passé très loin, avec la publication de documents internes de l’équipe de campagne d’Emmanuel Macron, joyeusement relayés par une nébuleuse de l’extrême droite. Mais le coup a fait pschitt. Cette tentative de déstabilisation était trop tardive et trop grossière pour influer sur la campagne.

Mais la leçon a été retenue, et l’État s’est doté depuis d’un arsenal législatif et administratif pour lutter contre ce type d’actions. En 2018, l’Assemblée nationale a adopté une « loi contre la manipulation de l’information », qui permet les actions judiciaires en référé pour interrompre la diffusion de publications fausses ou artificielles.
Elle instaure également un devoir de collaboration des plates-formes du Web. Celles-ci doivent mettre en œuvre un certain nombre de mesures comme la création d’un processus facile de signalement et la lutte contre les comptes qui propagent massivement de fausses informations.

A découvrir aussi en vidéo :

 

En juillet 2021, une agence de lutte contre les opérations de manipulation de l’information est également créée par décret. Baptisée Viginum, elle est rattachée au secrétariat général de la Défense et de la Sécurité nationale (SGDSN).
Opérationnelle depuis octobre dernier, elle compte une soixantaine de personnes, principalement des experts des données et des réseaux sociaux, des analystes, des linguistes et des informaticiens. Sa mission est de protéger la nation des « ingérences numériques étrangères », visant à polariser les débats, à répandre de fausses informations ou à pousser certaines thématiques.

« Viginum va faire du chalutage en source ouverte (…) On cherche à détecter des phénomènes inauthentiques », explique le directeur général de l’agence, Gabriel Ferriol, dans les colonnes du journal Le Monde.

Pour autant, il ne s’agit pas là d’une censure des citoyens, mais uniquement d’une analyse.

« Les contenus ciblés par Viginum sont ceux qui remplissent les quatre caractéristiques suivantes : ils vont à l’encontre de l’intérêt de la Nation, véhiculent des informations fausses, proviennent d’un état étranger et sont amplifiés de façon automatique et numérique », précise David Olivier, directeur cyberdéfense et intelligence chez Sopra Steria, à l’occasion d’une table ronde organisée par Milipol Paris.

Les bots, c’est fini

Reste à savoir si cet arsenal sera vraiment suffisant. Les techniques de désinformation peuvent changer rapidement et rendre les outils de détection vite obsolète.

« Il y a quelques années, l’amplification passait surtout par des robots, mais c’est fini. Les campagnes de fake news actuelles impliquent beaucoup d’humains. Désormais, la détection s’appuie donc davantage sur un traitement automatique du langage capable le comprendre le ton des messages », ajoute David Olivier.

Par ailleurs, certaines plates-formes Web traînent des pieds pour se conformer à la loi.

« Le niveau de coopération est très hétérogène. Certaines jouent le jeu, d’autres non. Il existe un manque d’information sur les algorithmes, sur les moyens publicitaires, sur l’effectivité des mesures. Chez Twitter France, par exemple, ils ne sont qu’une vingtaine à s’occuper de ces mesures. C’est extrêmement peu », estime Naïma Moutchou, députée du Val-d’Oise et co-rapporteur de la loi sur les fake news.

Son analyse s’appuie sur un rapport du CSA datant de septembre 2021.

Vers une résilience cognitive

Les experts s’accordent à dire que la véritable lutte contre la désinformation ne peut venir, à long terme, que de la population elle-même. Mais pour y arriver, il faut agir à plusieurs niveaux.
Tout d’abord, il faut réduire l’anxiété sociale et les inégalités qui existent dans la société. Ce sont des « failles » que les acteurs étrangers vont exploiter pour générer du désordre et instaurer le doute sur le fonctionnement démocratique en général et le processus électoral en particulier.

« Toute une partie de la population est désocialisée et hors du débat politique. Elle refuse le débat avec autrui et pour se faire entendre, elle utilise les réseaux sociaux, quitte à propager de fausses nouvelles », explique Guy-Philippe Goldstein, enseignant à l’école de guerre économique. 

Parallèlement, il faut développer les compétences numériques et l’éducation aux médias.

« L’État et l’Union européenne peuvent poser les principes d’une lutte contre la désinformation. Mais quand il s’agit de sécurité civile, il faut laisser un espace au privé mieux à même de trouver des solutions aux problèmes qui vont tout le temps émerger », poursuit Guy-Philippe Goldstein.

Selon lui, l’application Elyze — qui permet de sélection un candidat façon Tinder — est « une chance » car elle permet d’amener les nouvelles générations à la vie citoyenne. « Il y a tout un secteur d’applications civic tech à développer », ajoute-t-il.

En somme, il n’existera probablement jamais de solution technologique magique qui permette de lutter contre la désinformation. L’existence de Viginum est intéressante, car elle permet de comprendre ce qui se passe. Mais au final, le salut ne peut venir que d’une résilience cognitive collective, née d’un effort pédagogique et d’une réflexion profonde.   

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Gilbert KALLENBORN