Passer au contenu

Pourquoi Instagram est devenu le réseau social favori des réseaux de pédophilie

La plateforme de Meta serait devenue le lieu privilégié des réseaux pédophiles, selon des chercheurs. Les raisons : ses algorithmes de recommandation de contenus, qui mettent en avant des contenus pédopornographiques, et un « bug » dans le traitement des signalements de ce type de contenus, qui serait aujourd’hui réglé.

Quand des algorithmes favorisent des contenus pédopornographiques… Une enquête publiée mercredi 7 juin, menée conjointement par le Wall Street Journal et des chercheurs de l’université Stanford et de l’université du Massachusetts, montre que les algorithmes d’Instagram promeuvent un vaste réseau de comptes ouvertement consacrés à la vente et à l’achat de contenus pédopornographiques. Non seulement ce type de contenus est disponible sur le réseau social de Meta, mais il serait mis en avant par ses algorithmes, à partir du moment où l’utilisateur a cliqué sur un contenu qui a trait aux abus sexuels touchant les mineurs. Concrètement, Instagram met en relation les pédophiles et les guide vers les acheteurs ou vendeurs de ce type de contenus, expliquent nos confrères. 

Via des hashtags explicites comme #pedowhore (en français, pédo putain) et #preteensex (sexe pré-adolescent), il serait facile de trouver des comptes qui font de la publicité pour des contenus pédopornographiques. Pour vendre des images ou des vidéos, ces derniers proposent par exemple dans leurs descriptions des  « images du mineur pratiquant des actes sexuels avec des animaux », écrivent nos confrères. Des « rencontres » en personne sont aussi proposées. Si les chercheurs ont pu identifier de nombreux comptes, il leur a été difficile de déterminer avec précision l’ampleur de ces réseaux pédophiles.

Meta « cherche continuellement des moyens pour se défendre activement contre ce comportement »

Meta disposerait pourtant bien d’outils pour cartographier ces réseaux, contrairement aux chercheurs ou aux journalistes. « Le fait qu’une équipe de trois universitaires disposant d’un accès limité puisse trouver un réseau aussi vaste devrait déclencher des alarmes chez Meta », souligne Alex Stamos, ancien responsable de la sécurité de Meta, au Wall Street Journal. Celui qui est devenu directeur de l’Observatoire de l’Internet de Stanford espère que des enquêteurs humains seront embauchés pour mettre fin à cette situation.

Les conditions générales d’utilisation d’Instagram, tout comme les lois fédérales américaines, interdisent la promotion de contenus sexuels impliquant des mineurs. La plateforme est même contrainte de notifier toute image d’abus sexuel de mineurs au National Center for Missing & Exploited Children. Les neuf premiers mois de 2022, Instagram aurait signalé 6,1 millions de contenus de ce type. Et bien que Meta explique avoir déjà supprimé de nombreux réseaux pédophiles, et bloqué des milliers de hashtags, la société reconnaît, auprès de nos confrères, qu’il y a bien un problème dans l’application de la loi.

Le groupe cofondé par Mark Zuckerberg explique avoir mis en place un groupe de travail en interne, soulignant « chercher continuellement des moyens pour se défendre activement contre ce comportement ». Il aurait interdit à ses systèmes de recommander aux utilisateurs de rechercher des termes associés à des abus sexuels. Et il a ajouté qu’il s’efforçait d’empêcher ses systèmes de recommander à des adultes potentiellement pédophiles de se connecter les uns avec les autres, ou de réagir à un contenu posté par l’un d’entre eux.

« Il faudrait pouvoir suivre et perturber les réseaux pédophiles », selon les chercheurs

Cet objectif serait loin d’être atteint. Les chercheurs de l’Observatoire de l’Internet de Stanford, et du Rescue Lab de l’université du Massachusetts, ont montré via des comptes tests que la moindre consultation d’un compte du réseau pédophile avait une conséquence immédiate. Celle de se voir proposer des recommandations « suggérées pour vous » de contenus pédopornographiques et de comptes renvoyant à des sites en dehors de la plateforme. Une fois quelques recommandations suivies, les comptes tests ont été inondés de contenus d’abus sexuels commis sur des mineurs.

Pour supprimer les publications problématiques, le réseau se base aussi sur les rapports d’utilisateurs – qui peuvent signaler des contenus illicites. Mais cela n’est pas suffisant, il faudrait pouvoir suivre et perturber les réseaux pédophiles, soulignent les chercheurs de Stanford. En d’autres termes : rendre difficile le fait pour ses membres de se connecter les uns aux autres, de trouver du contenu et cibler des enfants. La plateforme peut empêcher qu’une communauté de pédophiles se forme, écrivent nos confrères.

Pas de garde-fous mis en place ?

Instagram, qui compterait plus de 1,3 milliard d’utilisateurs, serait la plateforme où le réseau pédophile serait le plus important, selon les chercheurs de Stanford. Comparée à d’autres réseaux sociaux, cette plateforme, plébiscitée par les adolescents, serait la plus mauvaise élève en la matière. Sur Twitter, les chercheurs ont par exemple trouvé trois fois moins de comptes de reventes de contenus pédopornographiques que sur Instagram. Ces types de comptes n’y seraient pas autant recommandés que sur le réseau social de Meta, et ils seraient supprimés beaucoup plus rapidement. Outre le problème lié à son algorithme, le groupe de Mark Zuckerberg n’aurait pas mis en place les garde-fous nécessaires, estime David Thiel, technologue en chef à l’Observatoire de l’Internet de Stanford, interrogé par nos confrères.

S’est ajouté à cela un problème de traitement dans les cas signalés par les utilisateurs, a expliqué la maison mère de Facebook. Un « bug » qui aurait été corrigé, mais qui a laissé des signalements de contenus pédopornographiques sans réponse pendant des mois… Et le groupe travaillerait toujours à corriger son système de recommandations. « Tirez le frein à main. Les avantages économiques valent-ils les dommages causés à ces enfants ? », a questionné Brian Levine, directeur du Rescue Lab de l’université du Massachusetts. Un point de vue partagé par Thierry Breton, le commissaire européen au Marché intérieur, qui a tweeté, ce jeudi 8 juin : « Le code volontaire de Meta sur la protection des enfants ne fonctionne pas. Mark Zuckerberg doit s’expliquer maintenant, et prendre des actions immédiates ». Après le 25 août, date d’entrée en vigueur du « Digital Services Act » (DSA) pour les plus grandes plateformes comme Meta, l’entreprise devra « démontrer les mesures prises, ou faire face à de lourdes sanctions », prévient-il. 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : The Wall Street Journal


Stéphanie Bascou
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *