Passer au contenu

Règlement sur l’IA : pour mettre fin à l’impasse sur les modèles de fondation, la Commission européenne propose un compromis

C’est la pomme de la discorde : comment réglementer les IA génératives comme ChatGPT ? Alors que les négociations sont censées arriver à leur terme, il n’existe encore aucun consensus sur la façon dont il faudrait régir les modèles de fondation. Pour la France, rejoints par deux autres États membres, un simple code de conduite devrait suffire. Une position qui est loin de faire l’unanimité, en particulier chez les ayants droit et les créateurs. Face à cette impasse, la Commission européenne a proposé un nouveau document qui associe code de conduite et obligations en termes de droit d’auteur.

Note de la rédaction : cet article, publié lundi 20 novembre, a été mis à jour ce mardi 21 novembre pour intégrer la nouvelle proposition de la Commission européenne. 

Il ne reste qu’un peu plus de deux semaines avant le 6 décembre prochain, jour du prochain trilogue de « l’AI Act », le règlement européen sur l’intelligence artificielle. Pourtant, des points de désaccords subsistent entre les 27 États-membres, le Parlement européen et la Commission européenne, comme la question de la transparence et la façon de réglementer les IA génératives telles ChatGPT, l’agent conversationnel développé par OpenAI. Et ces derniers jours, la nouvelle d’un accord entre trois États membres, dont la France, aurait éloigné la probabilité que les trois colégislateurs européens s’entendent sur un texte avant la fin de l’année. Pour mettre fin à l’impasse, la Commission européenne a avancé une nouvelle proposition, relate Contexte, ce mardi 21 novembre.

Un accord France-Italie-Allemagne sur les modèles de fondation ?

Samedi 18 novembre, Reuters révélait que la France, l’Italie et l’Allemagne avaient trouvé un terrain d’entente sur les modèles de fondation, selon un document officieux auquel nos confrères ont eu accès. Cette position commune n’a cependant pas été confirmée par ces trois États membres. Mais d’après l’agence de presse, les trois pays y défendraient l’idée d’autorégulation pour les modèles d’intelligence artificielle dits de base. Il s’agirait d’une « autorégulation obligatoire par le biais de codes de conduite » mais sans sanction, du moins dans l’immédiat.

Le futur règlement sur l’IA « réglemente l’application de l’IA et non la technologie en tant que telle », peut-on en effet lire sur ce document. Comme nous vous l’expliquions, le texte, proposé en avril 2021 par la Commission européenne, n’a pas vocation à régir la technologie en elle-même. Il définit une pyramide des risques basée sur l’usage de cette technologie. Son principe : plus l’utilisation d’un système d’IA est risquée (par exemple en termes de droits de l’homme, à l’image de système de reconnaissance faciale qui serait utilisé dans un but de contrôle social), et plus le fournisseur de ce système devra respecter des obligations de transparence et de gouvernance. Des utilisations sont totalement prohibées. À l’origine, l’AI Act imposait donc de réelles obligations aux seules utilisations les plus à risque comme l’éducation, les ressources humaines ou les services privés essentiels et publics.

Mais après la vague ChatGPT lancé en novembre 2022, le Parlement européen, sans remettre en cause ce principe de base, a décidé d’introduire de nouvelles dispositions. Les Eurodéputés ont notamment ajouté de nouvelles obligations de transparence qui s’appliqueraient seulement aux « modèles de fondation ». À partir du moment où on est face à un « modèle de fondation », qu’importe le risque, il faudrait respecter un certain nombre de règles. Le Conseil, la représentation des États membres, avait fait le choix de rester sur une logique d’approche par les risques, pour les « IA à usage général ».

Toute la question est donc de savoir si les nouvelles dispositions, ajoutées par les Parlementaires européens, vont survivre à la négociation, et sous quelle forme : s’agira-t-il de réelles obligations ou d’un simple code de conduite à respecter ?

Quelques jours plus tôt, c’était Arthur Mensch, le PDG de la start-up française Mistral AI, qui prenait position, dans un long tweet sur X. Il expliquait regretter que le texte s’éloigne de l’approche initiale fondée sur l’utilisation, pour imposer des obligations aux modèles de fondation en eux-mêmes. Car comment réglementer un modèle qui n’est pas utilisé, questionne-t-il. Selon ce dernier, de nouvelles obligations favoriseraient les acteurs déjà en place comme OpenAI ou Google, dont aucun n’est européen, au détriment des nouveaux qui tentent d’émerger, comme son entreprise.

La France, l’Allemagne et l’Italie se seraient mis d’accord, de leur côté, sur l’absence d’obligations pour ces modèles de fondation, optant pour une autorégulation par le biais de codes de conduite. Selon Euractiv qui a aussi eu accès à ce fameux document officieux, les trois pays plaideraient pour que seules des applications spécifiques (et risquées) des « systèmes d’IA à usage général » soient réglementées, et non les modèles de fondation en eux-mêmes.

Pour faire cette distinction entre ce qui serait à risque et ce qui ne le serait pas, ces États-membres proposeraient que les développeurs de modèles de base publient une sorte de fiche technique, une documentation technique. Ces dernières « comprendront les informations pertinentes pour comprendre le fonctionnement du modèle, ses capacités et ses limites et seront basées sur les meilleures pratiques au sein de la communauté des développeurs », selon le document cité par nos confrères.

« Un organe de gouvernance de l’IA pourrait contribuer à l’élaboration de lignes directrices et vérifier l’application des fiches » techniques, ajoutent-ils. Dans un premier temps, aucune sanction ne devrait être imposée, selon le document, si les entreprises ne respectent pas ce code de conduite. Mais en cas de violations répétées, un système de sanctions pourrait être mis en place.

Les créateurs vent debout contre la position de la France

Cette position, si elle se confirme officiellement, signifierait que les deux articles pour lesquels militent les sociétés de défense des artistes-créateurs sauteraient – à savoir, l’article 28B et l’article 52. Le premier contraindrait les développeurs d’IA à être transparents sur les données d’entraînements des systèmes, puisque ces derniers seraient tenus de publier un résumé plus ou moins détaillé des données protégées utilisées pour l’entraînement. L’article 52 imposerait, de son côté, que tout contenu généré par l’IA soit bien étiqueté en tant que tel.

À lire aussi : AI Act : le monde de la Culture demande à l’Europe d’imposer plus de transparence aux IA génératives

Vendredi 17 novembre, le secteur de la culture publiait pourtant un communiqué, demandant au gouvernement français de revoir sa copie et de ne « pas sacrifier une obligation de transparence sans laquelle rien de solide ne peut être construit ». « Seul le principe intangible d’une transparence sur les données d’entraînement et sur les contenus générés pourra apporter des garanties aux citoyens et aux créateurs sur le respect de leurs droits », écrivent les auteurs de ce texte, signé par 80 syndicats et organisations, dont ceux de la presse, de l’édition, du cinéma, de la musique et de la photographie.

Sans transparence – et donc obligation de publier la liste des contenus utilisés pour l’entraînement des IA, et protégés par le droit d’auteur, il serait en effet difficile voire impossible pour les auteurs et ayants droit de recevoir une indemnisation pour l’utilisation de leur œuvre. Il serait quasi impossible de savoir si telle œuvre a bien été utilisée pour entraîner tel système d’IA.  Le 9 novembre dernier, rapporte Contexte, la France et l’Allemagne avait posé leur véto sur cette obligation de transparence. Il semblerait que le communiqué du monde de la Culture n’ait pas fait bouger d’un iota la position française, au vu du document rapporté par nos confrères de Reuters.

À lire aussi : Droit d’auteur : où en est-on dans la bataille qui oppose créateurs et artistes aux développeurs d’IA ?

Mais il a fait réagir la Commission européenne, qui a proposé un nouveau compromis, explique Contexte ce mardi 21 novembre. D’un côté, les modèles à usage général présentant des risques systémiques devraient respecter des codes de conduite. De l’autre, les modèles plus basiques devraient respecter de véritables obligations, dont certaines relatives au droit d’auteur. Les fournisseurs de ces modèles devraient bien publier un « résumé suffisamment détaillé » du contenu utilisé pour entraîner leur système. Autre point qui répond à la demande du secteur de la culture : ces entreprises devront prendre des mesures pour respecter l’opt-out, le fait que les ayants droit refusent que leurs œuvres soient utilisées à des fins d’entraînement. La directive relative au droit d’auteur de 2019 prévoit en effet, avec l’exception du « data and text mining », que les systèmes d’IA ont le droit de collecter des textes ou des images à des fins d’entraînement, y compris ceux protégés par le droit d’auteur, à des fins de recherche.

Or, cette disposition, pensée et adoptée avant le lancement de ChatGPT, ne décrit pas comment cet opt out peut être mis en place – ce que viendrait combler cette disposition proposée par la Commission, si elle est adoptée. Enfin, autre demande du secteur des créateurs, le fait de clairement indiquer s’il s’agit d’un contenu généré par l’IA pour tout texte, code, image ou vidéo créés par l’IA, fait aussi partie de la proposition de l’exécutif européen.

L’idée du code de conduite : une mauvaise idée ?

Mais pour certains, c’est surtout l’idée de code de conduite en elle-même – donc le fait de mettre en place des normes non obligatoires – qui poserait problème. Selon Euractiv qui cite un fonctionnaire du Parlement européen, le document officieux, en proposant un code de conduite, serait une véritable « déclaration de guerre », allant à l’encontre de la version adoptée par les Eurodéputés.

Olivier Iteanu, avocat au Barreau de Paris et spécialiste du droit du numérique, a rappelé, dans un billet de blog du 19 novembre, qu’en l’absence de loi s’imposant aux fournisseurs d’IA générative comme OpenAI, les conditions générales d’utilisation (CGU) s’appliquent. Lorsque vous utilisez ChatGPT, ce sont ces CGU qui ont force de loi. Or, que disent-elles ? Qu’OpenAI n’est jamais responsable, quelle que soit l’utilisation de l’agent conversationnel. « Si cette position ne tiendra pas devant un Tribunal, combien d’années, d’argent et de temps, faudra-t-il aux courageux utilisateurs particuliers, pour le faire reconnaître ? » s’interroge le spécialiste, qui plaide pour la mise en place d’une réglementation d’ordre public. À quelle sauce seront mangés les modèles de fondation, ou les IA à usage général ? Devront-ils respecter des obligations ou un simple code de conduite ? Les discussions techniques sont censées reprendre cette semaine. 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Reuters


Stéphanie Bascou
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *