Passer au contenu

Des ONG attaquent Clearview AI et sa reconnaissance faciale dans cinq pays européens

Des plaintes ont été déposées en France, en Grèce, en Autriche, en Italie et au Royaume-Uni. La récupération automatique d’images et l’extraction de données biométriques, auxquelles se livre Clearview, ne respecteraient pas le RGPD.

Un groupe d’ONG mené par Privacy International a annoncé jeudi saisir les autorités de plusieurs pays d’Europe, dont la France, contre Clearview AI, start-up américaine à la technologie de reconnaissance faciale appréciée des polices, mais controversée.

« Les plaintes ont été déposées auprès des autorités de protection des données en France, en Grèce, en Autriche, en Italie et au Royaume-Uni », explique Privacy International (PI)

Elles concernent notamment la vente à des services de police de la technologie de reconnaissance faciale de Clearview AI.

L’ONG britannique indique s’appuyer sur « des preuves obtenues par des membres du personnel de PI, à l’aide de demandes de droit d’accès aux données déposées auprès de la compagnie, ainsi que sur des analyses techniques et juridiques du produit de Clearview ».

En France, la plainte a été déposée auprès de la CNIL, pour violation du « RGPD (le dispositif juridique européen de protection des données, ndlr) et (de) la Loi Informatique et Libertés ».

Des données vendues à la police et aux sociétés privées

Ce n’est pas la première fois que Clearview AI est dénoncée auprès de la CNIL. En juillet 2020, une plainte avait été déposée par la personne chargée des questions de vie privée de la start-up française Jumbo Privacy, qui propose des recommandations pour mieux contrôler l’usage de ses données personnelles.

Dans leurs plaintes déposées jeudi, PI et d’autres organisations (l’italienne Hermes Center for Transparency and Digital Human Rights, la grecque Homo Digitalis et l’autrichienne noyb) dénoncent l’utilisation par Clearview AI d’un « dispositif automatisé de récupération d’images », qui parcourt Internet et extrait toutes les images de visages humains détectées.
À l’aide d’un algorithme, ces images sont ensuite traitées pour créer une base de données biométriques dont l’accès est vendu « à la police et à des sociétés privées dans divers pays », déplorent les plaignants.

A découvrir aussi en vidéo :

 

« La loi européenne sur la protection des données est très claire sur les finalités pour lesquelles une compagnie peut utiliser nos données », observe Ioannis Kouvakas, juriste à PI.
« Extraire nos caractéristiques faciales uniques, et les partager avec la police et d’autres groupes, va entièrement à l’encontre de ce à quoi un utilisateur d’Internet peut s’attendre », ajoute-t-il.

Les régulateurs britannique et australien chargés de la protection des données avaient de leur côté lancé une enquête conjointe sur la société californienne en juillet 2020.
En février 2021, un rapport du Commissariat canadien à la protection de la vie privée avait estimé qu’elle a exercé au Canada une « surveillance de masse » illégale.
Le rapport notait que l’entreprise américaine avait constitué une base de données de « plus de trois milliards d’images de visages ». La société s’est retirée du marché canadien au cours de l’enquête.

Clearview conteste

Interrogé par Bloomberg, Clearview AI explique « n’avoir jamais eu de contrat avec un client dans l’Union européenne » et que « sa technologie n’est pas disponible » dans l’espace communautaire.
Pourtant, en février dernier, l’agence suédoise de la protection des données personnelles a sanctionné les forces de l’ordre du pays à hauteur d’environ 250 000 euros pour avoir utilisé la technologie de Cleaview AI. Elle lui reprochait de traiter de manière illégale des données biométriques à des fins de reconnaissance faciale.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Gilbert Kallenborn, avec AFP