Passer au contenu

Une vulgaire pancarte suffit à duper les systèmes de vidéosurveillance

Des chercheurs ont créé des images qui, si elles sont placées devant une personne, fait planter les algorithmes de détection automatique. La prochaine étape : créer des t-shirts imprimés qui rendent virtuellement invisibles.

La cape d’invisibilité existe vraiment, en tous les cas vis-à-vis des yeux d’ordinateurs. Des chercheurs de l’université KU Leuven ont montré qu’il était possible de créer et imprimer des pancartes qui, si elles sont placées devant une personne, empêchent l’algorithme de reconnaissance d’image de détecter la présence d’une personne. Porter ce type de pancartes permettrait donc de rester quasiment invisible face aux caméras de surveillance intelligente. Cette astuce fonctionne souvent, mais pas à tous les coups. En fonction des angles, une personne peut parfois être détectée, comme le montre cette vidéo Youtube.

Porter des pancartes au quotidien est évidemment pénible. C’est pourquoi les chercheurs envisagent désormais la création de vêtements d’invisibilité. « Nous pensons que si nous combinons cette technique avec une simulation vestimentaire sophistiquée, nous pouvons créer un t-shirt imprimé qui rendra les personnes virtuellement invisibles pour les caméras de surveillance automatique », expliquent les chercheurs dans leur article scientifique.

Pour créer leur design, les chercheurs sont partis d’une image réelle qu’ils ont systématiquement incrustée sur des clichés de personnes d’une banque d’images. Puis ils ont calculé le taux de détection des personnes tout en faisant varier différents paramètres de l’image incrustée, comme le contraste, le bruit, la taille ou l’angle de rotation. L’image résultante est celle qui minimise le taux de détection. Ce travail a été réalisé pour l’algorithme de détection YOLOv2, qui est l’un des plus utilisés dans le domaine de la reconnaissance d’image.

KU Leuven – Principe de création de l’image qui dupe les caméras de surveillance

Ce n’est pas la première fois que les chercheurs arrivent à tromper les algorithmes de reconnaissance d’image. Début avril, des chercheurs ont réussi à désorienter le pilote automatique d’une Tesla avec des stickers collés par terre. En 2017, des chercheurs ont montré qu’il était possible de fausser la reconnaissance des panneaux de signalisation en apposant de petits autocollants noir et blanc. Toutes ces attaques exploitent des failles dans le fonctionnement des réseaux neuronaux convolutifs, une sous-catégorie de l’apprentissage automatique qui est désormais utilisée de manière standard dans la reconnaissance d’image.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Gilbert KALLENBORN