Passer au contenu

Protéger la démocratie contre les abus de l’IA : un pacte des géants de la tech pour faire bonne figure

Le gratin des entreprises impliquées dans l’intelligence artificielle générative ont signé un engagement pour lutter contre les utilisations malveillantes de cette technologie à durant les différentes élections cette année. Un accord non contraignant qui se contente surtout d’aligner quelques grands principes.

2024 sera une grande année électorale ! Plus de 40 pays organisent des élections, durant lesquelles 4 milliards de personnes seront invitées à voter : les Européennes en juin, l’élection présidentielle américaine en novembre, et bien d’autres encore. Il existe une véritable crainte de voir l’intelligence artificielle générative mettre son grain de sel durant le processus démocratique.

La grande peur de l’IA générative

La peur des deepfakes et des manipulations numériques est réelle, et justifiée. Tout récemment, des électeurs américains ont pu entendre un message d’un faux Joe Biden généré par IA leur demandant de ne pas aller voter. À l’occasion de la conférence de Munich sur la sécurité, les grands noms de la tech ont signé un engagement pour combattre l’utilisation frauduleuse de l’IA durant les élections 2024.

Microsoft, Google, Meta, Google, OpenAI, TikTok, Snap (Snapchat), Twitter et d’autres se sont accordés sur de grands principes, parmi lesquels le développement et la mise en place d’une technologie pour limiter les risques liés au contenu électoral trompeur généré par IA ; évaluer les modèles pour comprendre les risques qu’ils peuvent poser en période électorale ; chercher à détecter la distribution de ce type de contenu sur leurs plateformes ; traiter ces contenus « de manière appropriée » quand ils sont détectés…

8 engagements en tout qui n’ont rien de contraignant, et qui laissent aux entreprises beaucoup de flexibilité pour gérer ces contenus électoraux bidonnés comme bon leur semble, finalement. En cela, il n’y a pas grand chose de neuf par rapport à l’accord trouvé par la Maison Blanche sur le même sujet avec peu ou prou les mêmes entreprises l’été dernier.

Lire Un watermark pour repérer les contenus générés par l’intelligence artificielle

Les sociétés doivent surtout montrer patte blanche pour éviter les législations trop contraignantes sur l’intelligence artificielle. L’AI Act, pour lequel les institutions européens ont trouvé un terrain d’entente début décembre, pourrait être suivi par d’autres réglementations aux États-Unis et ailleurs. Mais les dispositions du texte n’entreront en vigueur qu’en 2025, après cette séquence électorale.

Lire AI Act : Tout comprendre au futur règlement sur l’intelligence artificielle en 5 points

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : AI Elections Accord


Votre opinion
  1. Ne pas oublier que si danger de l’Intelligence Artificielle il y a, ceux de la Bêtise Naturelle existent également.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *