Passer au contenu

IBM arrête de travailler sur la reconnaissance faciale par crainte d’abus raciaux

La société d’informatique américaine a décidé de cesser son programme de reconnaissance faciale pour éviter les biais racistes et la restriction de liberté. Son patron appelle à un « dialogue national ». 

Dans une lettre adressée aux membres du Congrès américain, lundi 8 juin, le PDG d’IBM, Arvind Krishna a déclaré l’abandon de son activité de reconnaissance faciale « à des fins générales ». L’entreprise « s’oppose fermement » à l’utilisation de la technologie pour la surveillance de masse, le profilage racial et les « violations des droits et libertés fondamentaux de la personne ».

Un débat national nécessaire

« IBM s’oppose fermement à l’utilisation de toute technologie, y compris la reconnaissance faciale offerte par d’autres fournisseurs, pour la surveillance de masse, le profilage racial, les violations des droits et libertés fondamentaux des personnes, ou tout autre motif qui n’est pas conforme à nos valeurs et principes de confiance et de transparence », écrit Arvind Krishna aux membres du Congrès. « Nous croyons que le moment est venu d’entamer un dialogue national. »

Arvind Krishna a précisé que ce « dialogue national » devait avoir lieu non seulement sur la manière dont la reconnaissance faciale devrait être utilisée, mais aussi plus généralement sur sa nécessité ou non. Il a tout de même soutenu que cette intelligence artificielle était un « outil puissant » pour faire appliquer la loi, mais a insisté sur la nécessité de contrôle.

Même si la reconnaissance faciale n’est pas au centre des manifestations anti-violences policières, la lettre d’IBM s’inscrit dans un appel plus large au Congrès. Un appel qui vise à faire pression en faveur d’une plus grande responsabilisation de la police et de réformes de la conduite, y compris certaines qui font déjà partie de la Justice in Policing Act de 2020, récemment adoptée.

Éviter les biais racistes et massifs

En parallèle, la missive répond aussi à un rapport démontrant que les systèmes de reconnaissance faciale peuvent être un vecteur de biais raciaux. Les non-Blancs et les femmes sont particulièrement touchés puisque les bases de données sont sous-représentatives de ces groupes sociaux. De surcroît, cette technologie pourrait servir au profilage de certaines personnes pour les intimider ou restreindre leurs libertés. En France, la technologie fait aussi débat. La Commission nationale de l’informatique et des libertés a, elle aussi, demandé à l’encadrer strictement et urgemment

Sources : Axios & CNBC

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Marion SIMON-RAINAUD