Passer au contenu

Avant l’AI Act, l’Europe veut conclure un pacte avec les géants de l’IA

En attendant l’AI Act, la future réglementation sur l’intelligence artificielle, la Commission européenne a expliqué qu’elle allait conclure un pacte avec les géants du secteur. L’objectif : tenter de combler le vide juridique avant l’entrée en vigueur de la loi en bonne et due forme. Mais ces sociétés accepteront-elles, au-delà d’une déclaration de bonne intention, de se contraindre à des obligations qui pourraient nuire à leurs intérêts commerciaux ?

Les démocraties du monde entier sont confrontées à un même casse-tête. D’un côté, il faut réglementer l’intelligence artificielle (IA), un secteur qui a explosé depuis le lancement de ChatGPT en novembre 2022. Et il faut le faire vite pour éviter que les systèmes d’IA ne restent dans une zone grise, n’offrant pas la protection adéquate aux utilisateurs, aux ayants-droit ou aux citoyens. Mais, de l’autre, adopter des lois prend du temps. En attendant qu’une réglementation comme le règlement sur l’IA pour l’Union européenne (UE) entre en vigueur – ce qui devrait prendre au moins deux ans et demi – Thierry Breton, le commissaire européen chargé du numérique et de l’industrie, a proposé une solution intermédiaire.

Les entreprises comme Google – qui a développé un chatbot Bard, concurrent de ChatGPT – pourraient collaborer activement avec les législateurs. Et ces sociétés, si elles sont volontaires, pourraient conclure un pacte avec l’UE, une sorte d’engagements sur des principes fondamentaux à respecter. Cette idée a été discutée à Bruxelles entre Thierry Breton et Sundar Pichai, le PDG d’Alphabet, la maison mère de Google et de YouTube, rapporte Reuters, le mercredi 24 mai.

Un accord sur des principes fondamentaux en attendant la loi

Ce pacte pourrait être signé par les entreprises européennes et étrangères du secteur de l’intelligence artificielle. Thierry Breton a expliqué sur son compte Twitter le 24 mai dernier : « Sundar et moi avons convenu que nous ne pouvions pas nous permettre d’attendre que la réglementation sur l’IA devienne réellement applicable et que nous devions collaborer avec tous les développeurs d’IA pour élaborer un pacte sur l’IA sur une base volontaire avant l’échéance légale ».

Il a ajouté que l’adoption du règlement était attendue d’ici la fin de l’année – son entrée en vigueur étant prévue fin 2024, au plus tôt. Même son de cloche chez la commissaire européenne chargée de la Concurrence, Margrethe Vestager, qui a aussi rencontré le PDG de Google. Parce qu’il n’y a « aucun temps à perdre », et que « la technologie de l’IA évolue extrêmement vite », cette dernière a demandé un « accord volontaire sur des règles universelles pour l’IA » avec des entreprises, tout en insistant sur le fait que l’AI Act était en cours de finalisation.

Que contiendraient ces pactes ? Seraient-ils contraignants ? Pour l’instant, on sait juste que ces règles seraient provisoires, jusqu’à l’entrée en vigueur du règlement sur l’IA. Elles seraient appliquées seulement sur la base du volontariat, à l’image d’une « prérégulation »  qui réglerait des questions fondamentales, a expliqué Margrethe Vestager à nos confrères des Échos. Il s’agirait donc d’un socle de règles minimales, de garde-fous à respecter.

Les entreprises accepteront-elles des règles contraignantes ?

Cette initiative est, d’un côté, une bonne idée car elle permettra aux entreprises de participer activement à l’élaboration de normes – elles seront d’autant plus enclines à les appliquer si elles ont aidé à leur conception. Mais de l’autre, il n’est pas certain que ces sociétés acceptent dans ce pacte des obligations qui leur semblent trop lourdes, trop intrusives, ou qui sont tout simplement contraires à leurs intérêts commerciaux, à moins d’une pression populaire ? Après les discours de bonnes intentions, ces sociétés joueront-elles le jeu ?

L’objet de la visite européenne du PDG d’Alphabet était, d’ailleurs, de passer par Bruxelles pour faire part de ses inquiétudes face à la future réglementation européenne. Des préoccupations aussi soulevées par Sam Altman, dont la start-up a développé ChatGPT. À chaque fois, la lourdeur des obligations qui pourrait entraver l’innovation des systèmes d’IA est mise en avant. Le patron d’OpenAI est allé, lui, plus loin, soulignant que les obligations contenues dans l’AI Act pourraient avoir une conséquence inattendue : priver l’Europe de ChatGPT. Ce dernier a expliqué, lors d’une table-ronde organisée par une université britannique, que ChatGPT serait classé dans les systèmes à haut risque. Il s’agit de l’une des quatre classifications de l’AI Act qui oblige les entreprises à respecter un niveau d’obligation de transparence et de gouvernance assez poussé. Or, ces règles seraient particulièrement contraignantes, selon ce dernier. « Si nous pouvons nous conformer (à l’AI Act, ndlr), nous le ferons, et si nous ne le pouvons pas, nous cesserons nos activités… Nous essaierons. Mais il y a des limites techniques à ce qui est possible », a-t-il prévenu.

À lire aussi : ChatGPT : OpenAI pourrait être obligé d’en priver l’Europe, selon son cofondateur 

D’autres initiatives préconisent plutôt l’élaboration de normes internationales pour réguler le secteur. OpenAI dans un billet de blog publié cette semaine a plaidé pour la mise en place d’une agence internationale, à l’image de ce qui existe pour le nucléaire avec l’AIEA, l’organe officiel des Nations unies. Margrethe Vestager, la commissaire européenne, a également annoncé un partenariat avec les États-Unis – d’où proviennent la majorité des entreprises développant des IA génératives – en vue d’établir des normes minimales pour l’IA, avant l’entrée en vigueur du règlement européen. Reste désormais à se lancer dans la mise en œuvre de ses déclarations.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Reuters


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *