Passer au contenu

Les deepfakes porno sans consentement se propagent à toute vitesse

Les premières apparitions des deepfakes en vidéo laissaient craindre le pire il y a quelques années, et le pire est effectivement en train d’arriver. Avec la démocratisation des outils de création, on observe une explosion des deepfakes porno réalisés avec les visages de célébrités ou d’anonymes — évidemment, sans l’autorisation des victimes.

Pour trouver des deepfakes porno, il suffit de le demander : il est en effet très facile d’accéder aux sites hébergeant ce type de vidéos dont la qualité ne cesse de s’améliorer. Hélas, ces deepfakes sont dans leur écrasante majorité réalisées sans le consentement des victimes qui « prêtent » leur visage, à leur insu. Stars du cinéma, vedettes de la télé-réalité, anonymes… Tout le monde peut être ciblé, avec une prédominance pour les femmes.

Épidémie de deeepfakes porno non consensuel

Une analyse partagée par Wired donne une idée de l’étendue du phénomène. Ces sept dernières années, au moins 244 625 deepfakes non consensuels ont été téléversés sur les 35 sites et plateformes les plus importantes de ce secteur en pleine ébullition. Sur les neuf premiers mois de l’année, 113 000 vidéos ont été envoyées sur ces sites, soit 54 % de plus que sur l’ensemble de 2022. Il est possible que d’ici la fin de l’année, le cumul de vidéos téléversées dépasse celui de toutes les années précédentes.

Et ces chiffres ne prennent pas en compte les deepfakes partagées sur les réseaux sociaux ou dans les messageries. Les premières vidéos deepfakes sont apparues fin 2017, et immédiatement les chercheurs ont craint un débordement vers le porno non consensuel. Ça n’a pas raté.

Les outils pour créer des deepfakes convaincants, qu’il s’agisse de services en ligne ou d’applications, se sont multiplié. Et il est de plus en plus difficile de distinguer la réalité de la manipulation numérique. De plus, la génération de vidéos truquées est extrêmement simple, il suffit d’un clic ou deux.

« C’est quelque chose qui cible les gens ordinaires, les lycéens de tous les jours, les adultes de tous les jours — c’est devenu un phénomène quotidien », déplore la chercheuse Sophie Maddocks spécialisée dans les droits numériques et la violence sexuelle en ligne à l’université de Pennsylvanie.

La loi, efficace contre les deepfakes ?

« Cela ferait une grande différence si nous parvenions à rendre ces technologies plus difficiles d’accès. Il ne devrait pas suffire de deux secondes pour potentiellement inciter à un crime sexuel », ajoute-t-elle. Des lois sont en préparation, comme en France : des amendements du gouvernement ajoutés à la loi SREN de régulation de l’espace numérique punissent le fait de diffuser un contenu sur une personne généré par une intelligence artificielle sans son consentement, et sans mentionner qu’il s’agit d’un faux. Ils créent aussi un nouveau délit de « publication d’hypertrucage (deepfake) à caractère sexuel représentant une personne sans son consentement ».

S’il parait improbable que la loi puissent interdire l’utilisation des outils de conception de deepfakes et leur diffusion, il existe toutefois des possibilités pour réduire cette épidémie. Henry Ajder, expert en IA générative, explique qu’ajouter de la « friction » dans le processus de création de ces vidéos et dans la découverte de ce type de documents pourrait ralentir leur propagation.

Les moteurs de recherche pourraient déréférencer les sites web qui hébergent et partagent ces vidéos ; les fournisseurs d’accès pourraient carrément les bloquer. Google a récemment lancé de nouveaux outils permettant à un utilisateur de demander la suppression de contenus indésirables le concernant. Cela ne suffira pas à mettre un terme définitif à ces pratiques, mais pour les victimes ce serait un bon début.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Wired


Mickaël Bazoge
Votre opinion
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *