Passer au contenu

Comment les GAFA tentent de lutter contre la diffusion des contenus pédopornographiques

Comme le rapporte le New York Times, les grandes entreprises de la tech ne protègent pas assez efficacement face à la pédopornopgraphie en ligne. 

Dans une enquête sur les contenus pédopornographiques en ligne, le New York Times met en cause la responsabilité des grandes entreprises de la tech. Si elles ont su repérer et signaler 45 millions de contenus au cours de l’année 2018, elles ont « systématiquement échoué à mettre en place des mesures agressives pour y mettre fin », écrit le quotidien américain. Les journalistes pointent des failles qui reflètent « approches incohérentes, souvent unilatérales et menées en secret » pour réguler des images qui peuvent détruire la vie de certains enfants – comme en témoignent les deux soeurs qui ouvrent l’article dans les colonnes du quotidien américain. 

Des efforts mais pas suffisants 

Le New York Times montre les limites de l’outil presque unanimement utilisé par les géants de la tech : PhotoDNA. Développé en 2009 par Microsoft et le chercheur Hany Farid, ce logiciel permet de comparer « l’empreinte numérique » de photos mises en ligne à celles présentes dans une énorme base de données d’images pédopornographiques. A la manière d’une recherche inversée, l’outil est capable de déceler automatiquement les images déjà présentes dans cette base, et ce même si elles ont subi des modifications par rapport à l’original. Même si la méthode a fait ses preuves, elle n’est pas exempte de défauts.

D’abord, le problème principal est que l’analyse ne s’effectue que dans une seule base de données. PhotoDNA n’est pas capable d’analyser les contenus stockés ailleurs. D’autre part, l’outil ne permet pas de détecter de nouvelles images pédopornographiques, qui ne sont pas répertoriées dans ladite base. L’inédit passe à la trappe. 

Partager ses codes d’accès pour contourner

Si l’outil analyse les images en ligne, qu’en est il des contenus stockées sur les plates-formes ? Le New York Times explique que les images pédopornographiques sont souvent stockées sur Google Drive, Dropbox, Microsoft OneDrive ou Azure, mais qu’elles ne sont en aucun cas analysées. Á moins qu’elles ne soient partagées. Pour contourner ce filtre à la publication, certains pédophiles partagent les codes d’accès a leur compte, plutôt que les contenus qui seraient censurés. 

Même chose chez Amazon, Microsoft et Dropbox. Sous couvert de protection de la vie privée, ces sociétés n’analysent pas tous les contenus hébergés sur leurs serveurs. Interrogé au même titre que les autres, Apple n’a pas répondu au New York Times, estimant que le partage d’informations sur le sujet pourraient servir les pédophiles.

Facebook, le censeur d’image pédopornographique

Ces réactions montrent bien le point de tension, voire de rupture, entre le filtrage automatique de contenus répréhensibles et la protection des données personnelles. Jusqu’à quel point l’entreprise a un droit de regard sur ce qui se partage sur son réseau ? Certaines messagerie sont ainsi chiffrées pour que les messages ne soient lisibles que par l’émetteur et le récepteur, et jamais pas l’hébergeur.

Dans l’enquête, le New York Times alerte sur la volonté de Facebook de chiffrer son service Messenger, « la principale source d’imagerie » pédopornographique de la plate-forme. Une inquiétude d’autant plus forte que « 90 % des images détectées l’an dernier par les entreprises de la tech » ont été détectés par l’entreprise de Mark Zuckerberg. Le quotidien américain note au passage que le plus grand réseau social au monde scrute «minutieusement » sa plate-forme et se qu’il s’y passe. 

Pas de filtre sur les vidéos 

Enfin, une des lacunes est pas des moindres de l’outil de filtrage reste qu’il n’examine que les photos -et non les vidéos. Pire : il n’existe pas d’équivalent servant de standard à l’industrie. « Plusieurs plates-formes majeures – comme AOL, Snapchat et Yahoo! – n’analysent même pas les vidéos », écrit le New York Times. En parallèle, d’autres ont développés leurs propres outils tels que Facebook et Google. Mais les systèmes sont incompatibles, donc ne peuvent pas rassembler les informations collectées d’une part et d’autre. 

En outre, le quotidien américain a également interrogé les résultats des moteurs de recherche. On découvre ainsi que Bing, qui appartient à Microsoft, donne accès à des images pédopornographiques selon les mots-clés. Même constant chez Yahoo! et DuckDuckGo qui sont basés sur les algorithmes de Bing. Le manquement avait pourtant déjà été mis en lumière par TechCrunch en janvier 2019. « Nous avons trouvé et réglé quelques problèmes dans nos algorithmes de détection des images illégales », a expliqué un porte-parole de Microsoft au journal. Concernant Google, le New York Times se fait le relais du Centre canadien de protection de l’enfance qui a, lui, détecté des images pédopornographiques – ensuite retirées. 

Reste ensuite les vidéos en streaming… Si les vidéos sont déjà un défi majeur pour les plates-formes, les diffusions en direct sur les réseaux paraissent insurmontables. Englobant la pédopornographie, cette méthode de diffusion est une des plus utilisées par les criminels. Les tueries en live sur Facebook ne sont déjà plus des cas isolés. Pourtant, les défis techniques auxquels font face les plates-formes ne vont faire de prendre de l’ampleur dans les années à venir. 

Source : New York Times

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Marion Simon-Rainaud