Passer au contenu

Robots tueurs, la part du fantasme, le point sur la réalité

Les systèmes autonomes capables d’identifier une cible humaine et de tirer semblent encore relever de la science-fiction. Pourtant, de nombreuses associations militent pour leur interdiction dès aujourd’hui.

Dans une vidéo devenue virale fin 2017, on voit des étudiants engagés politiquement se faire identifier et abattre par un essaim de mini-drones autonomes. Une séquence fictionnelle, évidemment, au réalisme terrifiant.
Produite par des associations, elle avait pour but d’alerter le grand public sur les dangers à venir des robots tueurs.

Techniquement, cette catégorie d’armes est appelée « SALA » (Systèmes d’armes létaux autonomes), soit des systèmes capables de choisir seuls une cible humaine et de tirer. Une perspective qui suscite aujourd’hui l’effroi dans l’opinion publique : 59% des Français se déclarent opposés aux robots tueurs, d’après un sondage commandé à Ipsos par la coalition d’ONG Campaing to Stop Killer Robots et rendu public en début d’année.

Un débat passionnel

Des personnalités comme Elon Musk, Demis Hassibis (de DeepMind), Noam Chomsky, Bill Gates, Steve Wozniak, Yann LeCun ou feu Stephen Hawking ont appelé à leur interdiction dans des pétitions. Une position partagée par 28 Etats comme l’Autriche, le Brésil ou le Chili. Et des poids lourds de l’armement comme Thalès commencent même à s’engager à ne pas produire de robots tueurs.  

Mais de nombreux experts en sécurité se montrent agacés par les passions que suscite ce débat, alimentant, selon eux, tous les fantasmes. « J’ai envie de dire que tout le monde est contre les robots tueurs, en fait. Car le but premier des systèmes autonomes n’est pas de tuer des humains », affirme Thierry Berthier, chercheur en cyberdéfense et cybersécurité à l’Université de Limoges. « La question est plutôt de savoir jusqu’où on veut aller dans le processus d’automatisation de l’armement qui est en cours. Est-ce que le robot-sentinelle qui surveille déjà la frontière nord-coréenne avec une mitrailleuse tirera demain tout seul ? Est-ce que les navires autonomes qui font du renseignement iront en plus jusqu’à décider de torpiller l’ennemi ? », s’interroge-t-il.
En clair, le processus d’automatisation de toutes les armées est en marche. On s’oriente vers des systèmes multimissions et multifonctions auxquels on pourrait rajouter la capacité de prendre la décision de tuer.

Le robot sentinelle coréen de Samsung SGR-A1.
Creative Commons/MarkBlackUltor – Le robot sentinelle coréen de Samsung SGR-A1.

Un terroriste pourrait déjà bricoler un robot tueur

Qu’en est-il de la réalité technologique des SALA ? Il existe déjà des systèmes de réponses automatisées pour faire face à des attaques dites saturantes. C’est le cas du Dôme de fer israélien, qui est en mesure de déclencher des salves de missiles face à des tirs d’obus et de roquettes. Mais la décision initiale de les neutraliser est encore prise par un opérateur humain. Aujourd’hui, il n’existe pas officiellement de robots tueurs en service dans le monde.

« C’est pourtant une réalité technologique », nous affirme Tony Fortin, chargé d’études à l’Observatoire des armements. « Au niveau matériel, il est déjà possible de fabriquer soi-même des robots tueurs. Les composants sont librement disponibles dans le commerce, ce qui laisse redouter que des terroristes s’en emparent », avertit-il. La tentative d’attentat sur Nicolas Maduro l’été dernier au Venezuela a prouvé qu’il était possible de charger d’explosifs de simples drones civils DJI.

Des armes autonomes pour 2030

Au-delà du bricolage, de très sérieuses sociétés d’armement commencent aussi à plancher sur des systèmes plus sophistiqués, capables de fonctionner en totale autonomie, en s’appuyant notamment sur les progrès de l’intelligence artificielle.

C’est le cas de la société israélienne General Robotics, qui commercialise le robot tactique Dogo, surmonté d’un Glock 29 de calibre 9 mm. Il offre la possibilité de prendre le contrôle pour tirer… ou de le laisser faire. Citons encore Kalashnikov, qui affirme vouloir développer une nouvelle catégorie de produits embarquant une IA capable de prendre seule la décision de tuer. C’est en tous cas ce qu’a déclaré l’un de ses porte-parole à l’agence de presse russe Tass en 2017.

Les Etats-Unis, Israël, la Chine et la Russie sont les plus pays les plus avancés dans ces technologies émergentes… et comptent parmi les pays opposés à l’interdiction des robots tueurs. Il est probable qu’ils parviennent à en déployer d’ici 2030, d’après Tony Fortin. Mais avant cela, ils devront surmonter deux limites technologiques. « Dans l’optique d’utiliser des armes autonomes sur une longue durée, il y a le problème de l’autonomie, qui n’est pas résolu. Mais aussi les capacités des intelligences artificielles à s’adapter à leur environnement et à l’aléatoire pour prendre leurs décisions », fait-il observer.

Un nouveau concept d'arme robotique évoqué par Kalashnikov en 2018 : un énorme robot bipède.
Kalashnikov – Un nouveau concept d’arme robotique évoqué par Kalashnikov en 2018 : un énorme robot bipède.

Une interdiction est-elle possible ?

Les SALA posent de nombreux problèmes éthiques et juridiques, leur utilisation allant à l’encontre des principes des droits de la personne et des traités internationaux, où l’humain reste l’enjeu central. Une machine n’est pas douée de compassion et ignore le prix d’une vie. Est-il raisonnable dans ce cas de la laisser prendre la décision de tuer ? Et qui sera responsable de ses actes ? Ces systèmes soulèvent aussi des questions de sécurité. Des attaques informatiques visant à détourner et manipuler des robots tueurs ne sont-elles pas à redouter ?

Pour Aymeric Elluin, responsable de plaidoyer Armes et Justice internationale à Amnesty International, la seule solution pour éviter qu’il ne soit un jour trop tard, c’est l’interdiction dès aujourd’hui de ces dispositifs. Et tant pis si toutes les tentatives de négociations menées à l’ONU ou dans le cadre de la convention pour l’armement sur certaines armes classiques à Genève ont échoué jusqu’à présent. « Tous les pays n’ont pas signé contre les mines antipersonnelles. Mais leur interdiction a constitué un outil de pression et a stigmatisé les pays qui s’en affranchissent, contribuant à faire reculer leur usage ».

« Ce n’est pas parce que les robots tueurs n’existent pas encore qu’il ne faut pas les interdire », renchérit Bénédicte Jeannerod, directrice du bureau français de Human Rights Watch. « On a bien réussi à interdire les armes à laser aveuglantes avant leur mise sur le marché, par exemple ».

L’Hexagone entre deux feux, deux aspirations

La position de la France est nuancée. D’un côté, elle ne perd pas une occasion de rappeler que l’homme reste dans la boucle de commandement.
« La doctrine française affirme deux principes, valables pour tous les systèmes en service ou en développement : le commandement est toujours responsable de l’emploi d’un système d’armes et la machine reste subordonnée à l’homme : elle ne peut pas décider seule », nous explique Patrick Bezombes, directeur adjoint du centre interarmées de concepts, de doctrines et d’expérimentations. Mais notre pays ne va pas non plus jusqu’à prendre position pour l’interdiction des SALA. Si la question n’est pas tranchée, c’est que la France s’inquiète des ambitions dans ce domaine des pays déjà cités, à savoir Israël, la Chine, la Russie et les Etats-Unis. Il y a donc là un choix géostratégique à faire avec un risque d’isolement et de vulnérabilité.

« Le pays qui choisira d’interdire ces systèmes d’armes pleinement autonomes, s’ils existent un jour, acceptera de ce fait de se désarmer. Pour ce qui est de la France, nous développerons l’usage de l’IA dans nos systèmes, il ne faut pas en douter. Nous le ferons, comme pour toutes les technologies militaires, de façon responsable et conforme à nos engagements internationaux et au droit humanitaire », précise encore Patrick Bezombes.

Human Rights Watch ne désespère pas pour autant de voir notre pays changer de position. « Il ne s’agit évidemment pas que la France interdise seule les robots tueurs. Mais elle pourrait prendre la tête d’une large coalition d’Etats et faire naître un mouvement au niveau international », suggère-t-elle. Peu après son élection, Emmanuel Macron s’était épanché sur le sujet auprès du magazine américain Wired. « Je suis contre ça », avait-il déclaré au sujet des robots tueurs, convaincu que l’Homme doit toujours être responsable de la machine et prendre la décision de tirer. C’est à lui, le chef des armées, qu’il revient désormais de trancher.
 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Amélie CHARNAY