Passer au contenu

L’AI Act, le règlement européen sur l’IA, entre en vigueur ce jeudi 1er août : qu’est ce que ça change ?

Le compte à rebours est lancé : les fabricants de systèmes d’IA ont désormais 6, 12, 24 ou 36 mois, en fonction des risques que présentent leurs IA, pour se conformer à l’AI Act, le règlement européen sur l’IA. Voici ce qu’il faut en retenir.

L’AI Act, la « première législation au monde sur l’intelligence artificielle » entre en vigueur ce jeudi 1ᵉʳ août, mais les entreprises ont encore quelques mois pour s’y conformer. Un compte à rebours est lancé pour tous ceux qui devront appliquer le règlement européen sur l’IA (ou AI Act), à savoir, les fabricants comme OpenAI (ChatGPT), Google (Gemini) ou Mistral (Le Chat), mais aussi les importateurs, les distributeurs et certains utilisateurs (comme les institutions). Ces derniers ont désormais jusqu’au 2 août 2026 pour se conformer au texte, a rappelé la Commission européenne dans son communiqué de ce jeudi, avec trois exceptions.

  • Pour les systèmes d’IA qui présentent un risque inacceptable (et qui sont interdits), les règles s’appliqueront dès le 2 février 2025. Cette catégorie comprend par exemple les outils de scoring social, le fait de classer les personnes en fonction de leur comportement, ou encore ceux qui visent à manipuler la prise de décision d’un utilisateur.
  • Pour les modèles d’IA à usage général, les dispositions s’appliqueront dans un an, dès le 2 août 2025.
  • Les règles qui ont trait aux IA à haut risque, comme les systèmes qui touchent l’éducation ou les ressources humaines, devront être respectées dans 36 mois, soit le 2 août 2027.

La pyramide des risques

Pour rappel, l’AI Act est un texte qui vient réguler des usages particuliers de l’IA, en fonction des risques que son utilisation pourrait entrainer, pour les citoyens européens. Quatre catégories ont été définies : les IA à risque inadmissible, à très haut risque, à risque modéré, et à risque minimal. À chaque catégorie correspondent des obligations plus ou moins fortes de transparence, de traçabilité et de gouvernance, qui vont être imposées aux développeurs et aux distributeurs d’IA. Plus le risque est important, et plus les obligations vont être fortes.

A lire aussi : AI Act : Tout comprendre au futur règlement sur l’intelligence artificielle en 5 points

Pendant que les IA à risque modéré (comme ChatGPT) devront se conformer à de simples obligations de transparence, les IA à haut risque (comme les systèmes liés à l’éducation) devront, elles, être enregistrées sur une base de données. Ses développeurs devront répondre à de nouvelles exigences de gestion des risques et de qualité – comme le fait de mettre en place un contrôle humain.

Depuis ce 1er août, l’heure est à la mise en œuvre du texte : les entreprises de l’IA ont plusieurs mois pour s’y préparer. En cas de non-respect de ces nouvelles règles, ces dernières risquent gros : en plus d’être exclues du marché de l’UE, elles pourraient avoir à payer des amendes allant jusqu’à 7 % de leur chiffre d’affaires mondial, pour les violations des règles relatives aux IA interdites. Et en cas de non-respect d’autres obligations, l’amende tombe à 3 % du chiffre d’affaires, voire 1,5 % pour les sociétés qui donneraient des informations inexactes.

L’AI Act, 1ᵉʳ élément d’un triptyque

Pour Thierry Breton, le commissaire européen au Marché intérieur cité dans le communiqué, « la démocratie européenne a mis en place un cadre efficace, proportionné et de premier plan au niveau mondial pour l’IA, en luttant contre les risques et en servant de plateforme pour les jeunes pousses européennes dans le domaine de l’IA ». À noter toutefois qu’il s’agit du tout premier texte de ce cadre, puisque l’AI Act est un des trois textes qui constitueront la future législation européenne de l’IA.

À lire aussi : AI Act : pourquoi Paris n’a pas réussi à imposer sa ligne pro-innovation

Pendant que le règlement sur l’IA impose aux développeurs de ces outils principalement des nouvelles obligations de transparence et de gouvernance, une future directive viendra définir la responsabilité des fabricants, en cas de dommages physiques ou moraux causés aux citoyens européens. Enfin, des normes techniques seront précisées dans un troisième temps par le Cen Cenelec, le Comité européen de normalisation en électronique et en électrotechnique. Ce dernier déterminera techniquement ce que veulent dire les obligations de l’AI Act.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Communiqué de la Commission européenne du 1er août


Stéphanie Bascou