Passer au contenu

Les « droits de l’Homme de l’IA » sont en train d’être négociés, vous devriez vous y intéresser

Un traité international des droits de l’homme et de la démocratie sur l’IA est en train d’être négocié entre une cinquantaine de pays dont l’UE, les États-Unis et le Canada. Il vise à garantir que les développeurs d’outils d’intelligence artificielle comme OpenAI ou Mistral respectent un minimum de droits fondamentaux et d’éthique. Voici ce qu’il faut retenir de ce texte.

C’est un texte sur l’intelligence artificielle qui a pour l’instant été éclipsé de la scène par « l’AI Act », le règlement européen sur l’IA, mais qui devrait mériter toute notre attention. Le 14 mars dernier, la cinquantaine de pays qui s’était réunie à Strasbourg pour discuter de la « Convention cadre sur l’IA », est parvenue à trouver un accord provisoire, sur ce qui est considéré comme le tout premier traité international sur l’IA. 

Au sein du Conseil de l’Europe — une institution qui n’a rien à voir avec l’Union européenne — les États-Unis, le Canada, le Japon, l’Union européenne et bien d’autres pays – tentaient depuis près de deux ans et demi de se mettre d’accord sur quatorze pages qui ont trait aux droits de l’homme, et à ce qu’on pourrait appeler une « IA éthique ». 

« Certaines activités liées à l’IA pourraient porter atteinte à la dignité humaine et à l’autonomie individuelle, aux droits de l’homme, à la démocratie et à l’État de droit », écrivent-ils en préambule. Il existe en effet des « risques de discrimination », de « mauvaise utilisation de l’IA » – à l’image de ces systèmes « utilisés à des fins répressives, de surveillance arbitraire ou illégale, et de censure », ajoutent-ils. 

C’est quoi ce nouveau texte sur l’IA ? 

Il s’agit du tout premier traité international sur l’IA, élaboré par le Conseil de l’Europe (à distinguer du « Conseil », la représentation des 27 pays de l’Union européenne), une institution internationale qui comprend 46 membres et dont l’objectif est de protéger les droits humains. Si un accord a été trouvé au sein de son « comité sur l’intelligence artificielle », il doit encore être avalisé par son « comité des ministres », une étape qui devrait intervenir dans le courant du mois de mai. 

À la différence de la récente résolution des Nations Unies qui appelle à réguler l’intelligence artificielle, ce texte sera à terme contraignant. Mais il devra suivre un long processus pour devenir applicable : il devra être ratifié par chaque État signataire, puis être transposé dans chaque droit national. Il pourrait s’appliquer, une fois toutes ces étapes franchies, à l’Union européenne, mais aussi aux États-Unis, à l’Australie, au Canada, au Japon, au Mexique, au Costa Rica, à l’Argentine… Et à tous les pays qui le souhaitent. 

Son objectif « vise à aligner le développement, la conception et l’application de l’intelligence artificielle avec les principes du Conseil de l’Europe », souligne sa Secrétaire Générale, Marija Pejčinović Burić, dans un communiqué. Pour ses rédacteurs, l’intelligence artificielle, qui englobe autant les IA génératives comme ChatGPT que les IA prédictives – l’IA qui est utilisée pour faire des recommandations sur les réseaux sociaux – ne doit pas porter atteinte aux droits de l’Homme, à la démocratie et à l’État de droit.

Le traité vise à combler un vide. Jusqu’à présent, les règles sont majoritairement définies par les entreprises qui développent ces IA – comme OpenAI, Google, Mistral. Et le respect des droits humains est loin d’être dans leurs priorités. « L’idée, c’est de ne pas attendre que leurs systèmes soient mis sur le marché (et accessibles au grand public, ndlr), c’est de mettre en place des règles démocratiques au plus vite et en amont », explique Katharina Zügel, Policy Manager au sein du Forum sur l’Information et la Démocratie, que 01net.com a interrogée.

On trouve parmi les principes à respecter : les droits de l’homme, la démocratie, la dignité humaine, la transparence, l’égalité et la non-discrimination, le respect des règles en matière de données personnelles et de vie privée, ainsi que l’idée d’innovation sûre. Les systèmes d’intelligence artificielle ne doivent par exemple pas être utilisés pour « saper l’intégrité, l’indépendance et l’efficacité des institutions et processus démocratiques, y compris le principe de séparation des pouvoirs, le respect de l’indépendance judiciaire et l’accès à la justice ».

Quelle différence avec l’AI Act ?

Contrairement au règlement européen sur l’IA, il s’agit d’un traité international. « Son champ d’application va au-delà de l’Union européenne, puisque les négociations impliquent des pays comme les États-Unis, qui abritent bon nombre d’entreprises du secteur, le Japon et le Canada, des pays qui peuvent tous signer la convention », précise Katharina Zügel, qui suit de près le texte.

Autre différence : à l’inverse de l’AI Act qui liste, tout au long de ses 459 pages, les règles que les outils d’IA doivent respecter pour être mis sur le marché, la convention cadre est un document assez court. La dizaine de pages de l’accord provisoire du 14 mars a été publiée par un ancien journaliste d’Euractiv sur LinkedIn, puis par Contexte. Il définit de grands principes, des normes et droits à respecter dans la création, l’application et le développement de l’IA. Mais à charge pour les États qui le ratifient de le transposer dans leur propre droit, et de s’atteler à la question de ses mesures d’applications – même si la convention prévoit un mécanisme de suivi.

Ces derniers pourraient s’appuyer sur les recommandations publiées en février dernier par le Forum sur l’Information et la Démocratie, qui propose des mesures à adopter pour mettre en œuvre les principes d’égalité et non discrimination. Parmi elles, on trouve par exemple le fait d’« ouvrir les équipes développant l’IA à des équipes plus inclusives et diverses, le fait de décider du choix des données utilisées pour entraîner l’IA avec la société civile et des chercheurs, de mettre en place des analyses d’impact de ses systèmes... », liste sa responsable des politiques publiques.

À lire aussi : Pourquoi les algorithmes sont encore sexistes

Sera-t-il applicable au secteur privé ?

Sur le papier, on comprend l’intention du traité, mais en pratique, les entreprises privées qui développent les outils d’IA seraient-elles réellement tenues d’appliquer ce texte ? Ce point a justement été âprement discuté au sein de l’institution. Dans la version initiale, les rédacteurs proposaient d’appliquer la convention au secteur privé et au secteur public sans distinction, avec des exceptions pour la défense nationale. Mais dans la version publiée en décembre dernier, les lignes ont bougé. Une exception pour le secteur privé a été introduite.

De quoi mettre vent debout les défenseurs des droits, à l’image de ces ONG comme la Ligue des droits de l’Homme, Reporters sans frontières, Féministes contre le cyberharcèlement, Access Now, ou Public Eye. Dans une lettre ouverte, elles déploraient cette possible exclusion des Big Tech et entreprises du secteur de l’IA. Cela reviendrait à « vider la convention de sa substance », en n’offrant « que peu de protection significative aux individus qui sont de plus en plus soumis à des systèmes d’IA puissants, enclins à la partialité, à la manipulation humaine et à la déstabilisation des institutions démocratiques », écrivaient-elles.

L’accord provisoire du 14 mars a finalement opté pour un entre-deux : le secteur privé n’est pas, par défaut, exclu, mais les États signataires pourront choisir la manière dont la convention leur sera appliquée. Les négociateurs ont proposé que les pays puissent choisir entre :

  • appliquer la convention en l’état aux acteurs privés ou 
  • prendre « d’autres mesures appropriées » pour atteindre les objectifs et les finalités du texte. 

« C’est une énorme occasion ratée », regrette Katharina Zügel. « C’est évidemment important d’avoir cette convention applicable au secteur public ». Mais pour le secteur privé, si les dispositions de l’accord provisoire deviennent définitives, « chaque pays décidera des règles qui s’appliquent aux entreprises » – qui sont les acteurs qui développent les IA.

L’exclusion du secteur de la défense a aussi été source de tensions. Là aussi, les ONG demandaient a minima que soit inscrite dans la Convention l’obligation, pour les IA utilisées à des fins de sécurité nationale – donc les applications militaires ou celles utilisées par les services de renseignement – de respecter le droit international. Certains pays défendaient, de leur côté, l’idée d’une exemption générale. Finalement, c’est la première approche qui a été retenue. Les activités liées à la protection de la sécurité nationale ne seront pas tenues de respecter la Convention cadre, mais elles devront être menées en conformité avec le droit international. 

Ces compromis seront-ils maintenus dans la version finale du texte ? La prochaine étape de son adoption aura lieu en mai prochain, devant le Comité des ministres de l’institution.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Stéphanie Bascou