Passer au contenu

Quand les outils d’IA utilisés par les militaires finissent dans les mains des employeurs aux États-Unis

Des chercheurs tirent la sonnette d’alarme sur les outils d’IA, à l’origine destinés à repérer des cellules terroristes, qui finissent par être utilisés, outre Atlantique, pour repérer des syndicalistes en herbe ou des éléments « perturbateurs ».

Ils promettent la gestion de la réputation des entreprises, la détection des fuites de secrets de fabrication, le repérage d’éléments potentiellement perturbateurs dans les équipes… Des outils militaires, initialement développés pour espionner « des ennemis » au nom de la sécurité nationale, se retrouvent entre les mains d’employeurs privés, accessibles via des abonnements, s’alarment deux chercheurs du Centre d’éthique, de société et d’informatique de l’université du Michigan aux États-Unis, Gabriel Grill et Christian Sandvig, dans les colonnes de Wired.

Pour ces derniers, il faut organiser un débat démocratique sur l’expansion et la normalisation de ce type d’outils, notamment pour éviter qu’ils ne se transforment en moyen de surveiller les employés. Aux États-Unis, ils seraient surtout utilisés pour éviter la création de syndicats. Dans le pays, il n’existe ni convention collective, ni obligation pour les employeurs de négocier collectivement des conditions de travail ou des avantages sociaux. Il est même permis aux entreprises de lutter contre la création de syndicats, à l’image des différentes affaires touchant ces dernières années Starbucks ou Amazon, qui ont tout fait pour éviter que ce type d’organisation naisse en leur sein. Ils peuvent y compris payer des consultants et des cabinets qui s’assurent de l’« Union-busting », la casse des syndicats. Et si d’autres sociétés promettent des outils d’IA qui permettront d’arrêter tout processus de syndicalisation, pourquoi ne pas y recourir, puisque c’est permis ? C’est justement ce qui inquiète les deux universitaires.

Quiconque est en mesure de payer pourrait avoir accès à ces outils d’IA militaire

« Nous devrions tous être préoccupés par l’idée que ces systèmes d’IA militaire, normalement sous le contrôle de gouvernements démocratiques élus, avec des garanties en place pour empêcher son utilisation contre les citoyens, puissent désormais être déployés à grande échelle par quiconque est en mesure de payer », écrivent-ils.

Les chercheurs désignent notamment FiveCast, une société qui se présente sur son site Web comme un fournisseur mondial de solutions de renseignement en open source, qui propose une collecte de données ciblée et une analyse des risques basée sur l’IA.

L’entreprise vendait à l’origine ses produits à l’armée, avant de les proposer aux entreprises et aux forces de l’ordre. Or, ses outils d’analyse pour identifier des cellules terroristes pourraient être dorénavant utilisés pour identifier des organisateurs sur le point de créer un syndicat. Ses services de « sécurité commerciale » promettent aussi de détecter, à travers vos messages sur les réseaux sociaux, des émotions et des concepts – y compris ce qui pourrait être perçu par l’outil comme une certaine animosité à l’égard de son employeur. Son outil de « gestion des risques de la chaîne d’approvisionnement » pourrait même prévoir les grèves, détaillent les chercheurs. 

« Un système de surveillance routinier, semi-automatique et antisyndical »

Or, ces outils ne sont pas fiables, soulignent les deux universitaires. Ces systèmes pourraient être trompés par du faux contenu – généré massivement par l’IA -, ils pourraient détecter des profils seulement parce que ces derniers auraient suivi une page ou un compte particulier. Et les technologies qui sont sur le point de déboucher sur le marché – celles qui intégreront des outils d’IA de dernière génération – vont conduire à « un système de surveillance routinier, semi-automatique et antisyndical », s’alarment les auteurs de l’article.

Ces derniers n’hésitent pas aussi à relever l’argumentaire de ces sociétés, qui déclarent ne pas être contre les syndicats. Elles expliquent proposer des outils permettant de  « comprendre l’environnement syndical » et mentionnent clairement que « chaque Américain est protégé par les lois fédérales, étatiques et locales pour travailler dans des conditions sûres », relèvent-ils. Ce qui veut dire, en filigrane, si l’acheteur utilise à mauvais escient l’outil développé, ce n’est pas la faute du fabricant, écrivent les universitaires.

Un marché qui ne devrait pas exister, par principe ?

Autre moyen de défense mis en charpie par les deux chercheurs : le fait de dire que les données prises en compte par ces outils sont en libre accès. Mais étant donné la quantité astronomique de données que nous laissons dans nos usages numériques, c’est un problème, ajoutent-ils.

« Les mêmes outils qui permettent de suivre les mouvements des chars russes en Ukraine ne devraient pas être confiés à votre supérieur hiérarchique pour qu’il vous suive à la trace. Les fournisseurs de logiciels de renseignement semblent espérer que la pratique consistant à laisser les patrons fouiller dans la vie de leurs employés deviendra si courante que les employeurs seront amenés à le faire en permanence, en tant qu’outil proactif de surveillance ».

Ces derniers plaident pour une véritable règlementation à ce sujet, s’interrogeant même sur l’existence de ce marché destiné aux entreprises, qui devrait par principe ne pas exister. Car votre vie en dehors du travail ne devrait, par défaut, pas être accessible à votre employeur, plaident-ils.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Wired


Stéphanie Bascou