Passer au contenu

L’IA va pourrir le débat politique, et nous n’avons aucun outil pour nous en prémunir

Des chercheurs ont dressé un état des lieux en France, en Italie et en Allemagne de ce qu’ils appellent le « populisme numérique ». Ils s’inquiètent de l’utilisation des outils d’IA générative qui vont démultiplier la force de frappe des discours de désinformation. Pour ces derniers, les outils juridiques ou techniques actuels ne réussiront pas à enrayer la diffusion de contenus haineux ou trompeurs générés ou diffusés massivement par l’IA.

Des hommes politiques qui prononcent des phrases qu’ils n’ont jamais dites, des scènes qui n’ont jamais eu lieu et qui servent à prouver des théories conspirationnistes… Pendant les prochaines campagnes électorales, les fausses images et vidéos générées par l’IA vont se multiplier sur les réseaux sociaux. Si rien n’est fait, comment allons-nous différencier le vrai du faux ? Pour le CEPS, le Centre de Politique Européenne qui a publié une étude mardi 10 octobre 2023, les outils d’intelligence artificielle (IA) générative vont fortement bousculer les prochaines élections en Europe, et le débat démocratique va s’en trouver fortement altérer. Ce think tank basé en France, en Allemagne et en Italie vient définitivement tirer la sonnette d’alarme. « Si nous pensons aux élections européennes de l’année prochaine, les règles existantes sur la modération des contenus, telles qu’elles sont prévues par le règlement sur les services numériques (DSA), sont déjà dépassées, à l’ère de l’IA générative », écrivent les auteurs de l’étude. 

Parmi eux : Victor Warhem, économiste français et représentant du think tank en France, pour qui tout serait parti de l’observation, en Allemagne, de certaines pratiques de l’AFD, explique-t-il à 01net. L’extrême droite allemande a utilisé, ces derniers mois, des images très fortes générées par Midjourney de migrants semblant être menaçants, auxquelles ont été accolés leurs messages politiques. Les quatre chercheurs se seraient posés la question de « l’impact des nouveaux outils d’intelligence artificielle sur le discours politique en ligne ». Ces derniers ne vont-ils pas davantage polariser un débat déjà fortement… polarisé ?

Des « bulles de filtres » à l’IA

Avec les « des bulles de filtres » des réseaux sociaux, écrivent les chercheurs, les individus sont face à des « réalités filtrées distinctes de notre réalité commune ». Ces derniers ne vont alors plus croire « aux informations qui émergent d’autres filtres », relève l’étude. Mais avec l’IA, on change littéralement d’échelle. Grâce à ChatGPT, MidJourney, Dall-E, Bard et tous les autres, il est désormais facile, rapide et bon marché de créer des contenus « de désinformation personnalisée. Les “deep fakes” générés par l’IA déforment même notre compréhension de la “vérité” et d’une réalité commune et objectivement partagée ». Ainsi, un candidat à une élection peut reprendre l’image de son concurrent et lui faire dire ou faire tout et n’importe quoi – ce qu’a déjà fait le candidat républicain à l’élection américaine Ron DeSantis avec son adversaire, Donald Trump. 

À lire aussi : L’adversaire de Trump à la primaire républicaine utilise l’IA pour simuler la voix de l’ex-président 

Comment alors « maintenir un débat rationnel » dans un tel contexte ?, s’interrogent les chercheurs. Selon ces derniers, les « populistes » (un terme qu’ils reconnaissent être « controversé » et « caméléon », désignant le fait d’opposer « le “peuple” à l'”élite corrompue” ») qui s’appuyaient jusque-là sur les réseaux sociaux pour leurs campagnes, sont désormais en train d’adopter l’intelligence artificielle (IA). Ces systèmes vont venir amplifier leur force de frappe, leur donnant le pouvoir de se démultiplier, souligne Victor Warhem. 

L’écosystème numérique couplé à l’IA « augmente les chances de succès des mouvements populistes »

« L’IA rend la politique “plus facile, moins chère et plus dangereuse” », écrivaient déjà il y a plusieurs mois nos confrères de Bloomberg. Or, « le danger des campagnes de désinformation amplifiées par l’intelligence artificielle est bien réel », puisque l’écosystème numérique couplé à l’IA « augmente finalement les chances de succès des mouvements politiques populistes », prévient Camille Réau, une des co-auteurs citée dans l’étude. De quoi constituer un véritable danger pour la démocratie.

L’étude, qui s’est focalisée pour la France sur le RN, LFI et le parti d’Eric Zemmour, Reconquête !, montre que leur utilisation de l’IA reste pour l’instant marginale. Notamment parce qu’il n’y a pas encore eu de véritable campagne à l’ère de l’IA, explique Victor Warhem. Le parti Reconquête a, par exemple, utilisé une réplique de ChatGPT (ChatZ), un militant virtuel d’Eric Zemmour qui répond à toutes vos questions et tente de vous convaincre de voter pour son champion. 

Le parti de Marine Le Pen a, de son côté, utilisé des bots sur les réseaux sociaux, qui ont permis de simuler une certaine notoriété sur les réseaux sociaux comme sur X, anciennement Twitter. « En produisant automatiquement des tweets et en interagissant avec les autres utilisateurs, le bot identifie les sujets tendance, les influenceurs et agit comme un mégaphone pour faire passer un message ou un sujet souvent controversé », écrivent-ils.  

Diffamation et modération sont inefficaces contre les contenus de fake news générés par l’IA

Le problème est qu’aujourd’hui, il n’existerait pas d’armes juridiques réellement efficaces pour contrer les discours haineux ou tout simplement faux et destinés à nous manipuler.  « Si demain, Vladimir Poutine décide de lancer une attaque massive de désinformation dans le cadre des élections européennes, ou dans le cadre des élections américaines : son armée de bots va générer des fausses vidéos et des fausses audios en permanence. Or, on n’a pas d’outils à disposition pour empêcher que ces contenus arrivent dans le fil de tout le monde. Ça va nous arriver très rapidement, et on ne pourra rien faire contre ça », s’alarme Victor Warhem. De nombreuses mesures prévues par le DSA ne seront pas toutes mises en œuvre avant les élections européennes de 2024. 

Pour lutter contre le « populisme numérique sur les plateformes », les auteurs de l’étude recommandent de mettre en place une approche « ex-ante », c’est-à-dire en amont, avant que le contenu généré par l’IA ne soit diffusé. Les mesures actuelles, comme la détection et suppression automatique de contenus reconnus comme étant problématiques, ne suffiront plus, estiment les auteurs. Il en est de même pour « la modération manuelle des contenus et la création de nouvelles agences de régulation ». Car une fois que le contenu est diffusé, le mal est fait. La fake news a été diffusée, et elle ne sera retirée, au mieux, qu’après avoir été diffusée massivement. 

Mention obligatoire, transmission lente du contenu, armée de citoyens, consentement…

Les auteurs mettent en avant différentes mesures pour y remédier. L’étiquetage ou la mention obligatoire « généré par l’IA », clairement visible, pour les contenus générés par l’IA permettrait de distinguer, d’un coup d’œil, le vrai discours du faux, la vidéo authentique de la deepfake. Mais encore faut-il que ce moyen technique existe – ce qui n’est pas encore le cas. Cette mesure a été ajoutée, en juin dernier, à la liste du code européen de bonne conduite – un corpus de règles non contraignant. L’exécutif européen demandait alors à tous les signataires de signaler clairement et immédiatement tous les contenus générés par l’IA qui se trouveraient sur leurs plateformes.

À lire aussi : Bientôt des mentions « contenu généré par l’IA » sur les réseaux sociaux ?

Les chercheurs proposent aussi une « transmission lente du contenu », qui limiterait la viralité d’un post par exemple – avec un nombre de likes et de partage limité. « On pourrait aussi obliger les plateformes à introduire dans le feed des utilisateurs des contenus qui sont totalement hors de leur spectre idéologique » – ce qui reviendrait à imposer un changement de l’algorithme, au moins pendant les élections. « Ce qui irait totalement à l’encontre de l’intérêt des plateformes, qui ont intérêt à ce que leurs utilisateurs voient des contenus qui correspondent à leur idéologie, à leurs aspirations » pour qu’ils restent plus longtemps sur leur plateforme.

Pour Victor Warhor, la France propose des mesures supplémentaires dans son projet de loi pour sécuriser le numérique. Un article, déposé mardi 10 octobre par le Gouvernement, prévoit « une sorte d’armée de citoyens qui ont été sélectionnés, entre guillemets, par une équipe gouvernementale pour “flaguer” les contenus, qui seront ensuite gérés par les modérateurs de contenus sur les plateformes », explique l’économiste. Ce système pourrait être calqué sur les modérateurs de contenus bénévoles de Wikipédia. Une autre mesure proposée pénaliserait le fait de diffuser des deepfakes concernant des personnes qui n’ont pas consenti à cette diffusion, ajoute l’expert. L’objectif serait de limiter l’utilisation de deepfakes à des fins nocives, poursuit-il.

Pour les auteurs, les élections de 2024 auront l’effet d’un crash test. On risque de s’apercevoir que les outils actuels ne permettent pas de lutter efficacement contre les contenus de désinformation voire de manipulation générés par l’IA ou diffusés massivement grâce à l’IA. Il faudrait donc agir dès maintenant, plaident-ils. Car dans un tel contexte, s’interrogent-ils, peut-il encore « exister une “société” européenne – et, par conséquent, un débat collectif, à l’échelle de la société, qui est essentiel à la survie à long terme d’une démocratie » ? 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Etude du CEP « Les populistes européens s'appuient de plus en plus sur l'IA »


Votre opinion
  1. Votre article soulève des préoccupations importantes concernant l’impact de l’intelligence artificielle générative sur la désinformation, en particulier en politique. Toutefois, chaque affirmation mérite une analyse plus approfondie.

    1. Le “populisme numérique” : Vous désignez ainsi l’utilisation manipulatrice des outils d’IA générative visant à renforcer la diffusion de contenus haineux ou trompeurs. Cependant, regrouper tous les cas utilisant l’IA sous une même bannière simplifiée pourrait conduire à une diabolisation inutile de la technologie.

    2. L’utilisation des faux contenus par les politiciens et les mouvements populistes : Vous supposez que l’IA générative va intensifier le problème. Cependant, il est essentiel de se rappeler que ces outils, comme tous les outils technologiques, sont neutres par nature. Leur utilisation dépend des intentions de l’utilisateur.

    3. Le problème des “bulles de filtres” : Ces bulles existent aussi sans l’intervention de l’IA. De plus, les individus sont en partie responsables de leur propre exposition aux médias. La manière dont ils interagissent avec les contenus et les algorithmes des plateformes joue un rôle majeur dans ce qu’ils voient en ligne.

    4. L’impact potentiel de l’IA sur l’élection : Votre hypothèse est basée sur des sonnettes d’alarme, mais pourrait être considérée comme alarmiste. Il est vrai que l’IA jouera un rôle dans les futures élections, mais prétendre qu’elle va “bousculer” les élections est une extrapolation prématurée.

    5. L’AI utilisée par les “populistes” : Vous assimilez l’utilisation des outils d’IA à un gain en influence pour les populistes. Cependant, ce n’est pas l’outil qui augmente le danger, mais l’utilisation faite de l’outil.

    6. L’association du numérique et de l’IA avec les mouvements populistes : Cette association, bien que plausible, n’est pas une certitude et pourrait même être considérée comme réductrice. Tous les mouvements politiques ont la possibilité d’utiliser ces outils à leur avantage.

    7. L’inefficacité des armes juridiques contre les contenus de haine ou de désinformation : C’est un sujet complexe qui nécessite une régulation équilibrée pour éviter la censure et protéger les libertés individuelles.

    8. Votre recommandation pour une approche “ex-ante” : Cette approche peut sembler attrayante en théorie, mais elle pourrait mener à une forme de censure préalable, qui va à l’encontre des principes fondamentaux de liberté d’expression.

    9. La nécessité d’agir “maintenant”: Même s’il est crucial de chercher des solutions dès à présent, il est également important de faire preuve de patience et de prudence pour éviter de prendre des mesures hâtives qui pourraient avoir des conséquences involontaires.

    10. “L’effet d’un crash test” des élections de 2024: Ce n’est pas une prévision précise. Des initiatives d’éducation numérique et une régulation efficace pourraient permettre d’éviter toute “collision”.

    En résumé, votre argumentation tend à dramatiser le rôle de l’IA dans les pratiques de désinformation. L’IA générative est un outil, et comme tout outil, son impact sur la société dépend en fin de compte de la manière dont nous choisissons de l’utiliser.

    1. Bonjour,

      Merci pour votre commentaire, qui m’oblige à rappeler ici que cet article commente une étude que vous trouvez en pièce jointe en bas de page. Il ne s’agit pas de mon opinion, de mon analyse ou de mon argumentation. Ce sont ces chercheurs qui ont choisi le point de vue de ce qu’ils appellent le « populisme numérique ». Ce sont toujours eux qui préconisent cette approche ex ante, qui peut en effet avoir des conséquences néfastes pour la liberté d’expression et nos droits fondamentaux – C’est un point que nous ne manquons pas de rappeler dans d’autres articles. Mais vous avez raison de souligner que la technologie est neutre : c’est son utilisation qui pose avant tout problème.

  2. « Pourrir le débat public » en visant « l’extrême droite » ? Vraiment ? Croyez vous réellement qu’au vu de l’actualité de ces dernières années, la droite des droite, plus patriotique que fascisante soit-dit en passant, ait vraiment besoin de falsifier son discours ou ses vidéos ?

    La xénophobie, la haine de l’autre, l’homophobie, le repli identitaire etc… sont l’apanage d’autres courants ideologique, qui ont d’ailleurs vu leur terroir fertiliser parce que nous avons diaboliser certains courants politiques !

    Et pour revenir dans le sujet, la falsification des données via l’IA est déjà récurrente dans tous les milieux, dans tous les domaines : demain, on ne distinguera plus la supercherie, c’est tout notre rapport au réel qui en sera bouleversé

    1. Bien d accord l extreme droite n a pas besoin de l IA ni de fake news il suffit de regarder les infos : ce soir un prof a ete assassine au couteau par un fiche S sur ecoute telephonique et surveille par la DGSI

    2. Déjà les États eux même pratiquent la désinformation. Exemple: covid, impossible de s’exprimer. Les annonces du ministre de la santé qui dit que tout va bien, madame V D L qui refuse de publier ses SMS sans que personne ne réagisse, les contrats masqués etc etc et avec on se plaint de la montée des populistes ???
      Sur la guerre en Ukraine pays corrompu avant 2022 est devenu un exemple européen à faire rentrer dans l’u e

  3. Attention, «l’extrême droite» est un effet, il serait plus judicieux de se pencher sur les causes. Mais en France beaucoup préfèrent la com à l’action.

  4. Généralement les contenus haineux et messages politiques discriminatoires sont diffusés par des articles comme celui-ci. L’IA ne fait que ce qu’on lui demande.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *