Passer au contenu

Pourquoi le rapport européen sur l’éthique des IA soulève des critiques

La Commission européenne a publié, en décembre 2018, un premier jet d’un rapport sur l’éthique et l’intelligence artificielle, dont la version définitive est attendue courant mars. De premières lignes directrices déjà critiquées.

Le 18 décembre 2018, la Commission européenne a dévoilé une version préliminaire d’un rapport à propos d’éthique et d’Intelligence artificielle (IA). Le Groupe d’experts de haut niveau sur l’intelligence artificielle (Gehnia) y a dressé les « lignes directrices en matière d’éthique dans le domaine de l’IA » en vue d’une version définitive prévue courant mars. En mai, le Genhia rendra une deuxième contribution quant aux politiques et investissements.

« Maximiser les avantages de l’IA en réduisant au minimum les risques », c’est le cœur des recommandations européennes. L’« étoile polaire » du Gehnia : développer des « IA dignes de confiance ». Pour cela, les 52 experts européens proposent une méthode d’évaluation des IA selon deux critères : qu’elle garantisse une « finalité éthique », c’est-à-dire le respect des droits fondamentaux, de la réglementation applicable mais aussi des valeurs et principes de base ; et qu’elle soit en même temps « robuste sur le plan technique », autrement dit qu’elle atteste d’une « maîtrise technologique ». Le troisième et dernier chapitre de ce draft dresse une « liste d’évaluation concrète non exhaustive pour une IA digne de confiance ».  

De notre téléphone à notre voiture en passant par le frigo, les IA ont envahi nos vies. L’Europe semble (enfin) prendre la mesure des conséquences sociales et morales du nouveau monde numérique. En première mondiale de surcroît. Comment ne pas s’en réjouir ?

Pionnière, l’UE se complaît-elle dans des chimères ?

Pourtant, Jean-Gabriel Ganascia, président du Comité d’éthique du CNRS, estime que c’est « insuffisant ». Il souligne plusieurs biais dans ce rapport. Le chercheur en informatique et philosophe pointe d’abord du doigt le péché originel : la définition de l’IA sur laquelle se fonde le document. Plus exactement l’ambiguïté que soulève l’appellation européenne d’une « IA axée sur l’humain ».

800px-Jean-Gabriel_Ganascia_20100330_Salon_du_livre_de_Paris_2.jpg
Jean-Gabriel Ganascia au Salon du livre de Paris lors de la conférence Voir et pouvoir “Qui nous surveille ?”, en 2010

« À quoi, à qui, peut-elle bien s’opposer ? », se demande-t-il. « Y-aurait-il des IA non-axées sur l’humain ? Au service d’autre chose ? Des robots ? ». Pour lui, cette vision « fantasmée » est « regrettable ». Relevant plus de la science fiction que de la science, cette définition amplifie les craintes que suscitent les IA. Selon le chercheur, cela empêche de parler des « réels dangers » –au premier rang desquels, l’utilisation massive des données personnelles et l’atteinte à la vie privée.

Deuxième biais qui alimente les fantasmes et dessert le débat politique : une IA ne doit pas être « malfaisante » mais procurer un « avantage » ; être au service de l’humain et de son autonomie. Ces principes principalement calqués sur ceux qui régulent la bioéthique en Europe, veulent nous protéger contre « une hostilité qui viendrait des machines, et non des humains ». Or, la machine n’est que le reflet de l’humain qui l’a programmée.

Enfin, l’ensemble du rapport donne l’impression d’un futur proche, et non d’un présent manifeste. Pourtant, l’IA a déjà inondé notre quotidien. Et sa croissance est exponentielle.  

Des lignes directrices écrites « à la va-vite »

Écrit « à la va-vite » selon le chercheur, le rapport du Genhia effleure des sujets sociétaux pourtant cruciaux. Au lieu d’élever la réflexion philosophique autour de l’IA, ce faux départ dessert selon lui le débat politique. Pire : il génère des craintes quant à sa déclinaison pratique, notamment au niveau législatif. « C’est absurde de penser qu’un robot est responsable », dénonce le président du comité d’éthique du CNRS, faisant allusion à un projet de responsabilité juridique sur la robotique. Et il va plus loin : « si on fait des moratoires contre les armes autonomes, c’est faire l’économie de l’enquête ». Or, c’est bien le créateur de l’algorithme à l’œuvre qu’il faut blâmer.

Une mise en garde qui rejoint celle des 150 experts qui avaient signé une lettre ouverte adressée à la Commission européenne, publiée en avril 2018 [PDF]. Ce débat déchaîne les passions, notamment autour de l’interdiction ou non des robots-tueurs

Mais, le « miracle » du RGPD prouve que les initiatives européennes peuvent aboutir, voire servir de modèle à l’échelle mondiale. Cela renforce la conviction de Jean-Gabriel Ganascia : « C’est au niveau européen que cela doit se jouer », à condition de prendre les enjeux actuels de l’IA à bras le corps. En espérant que la version définitive ne le laisse pas (encore) sur sa faim.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Marion SIMON-RAINAUD