Passer au contenu

Les IA génératives sont-elles le fruit du plus grand piratage d’œuvres d’art de l’histoire ?

C’est une plainte d’une importance capitale pour l’avenir des services de génération d’images. Trois célèbres dessinatrices s’associent à une class action visant Stability AI, créateur de Stable Diffusion, Midjourney, mais aussi la plate-forme DeviantArt. Leur projet : prouver que les IA génératives fonctionnent grâce à des millions d’œuvres piratées. Et obtenir compensation.

Stable Diffusion est-il un « outil de collage du 21ème siècle qui viole les droits des artistes » ? Voilà en tout cas ce qu’estiment trois célèbres artistes féminines qui, ensemble, ont décidé d’initier une action de groupe à l’encontre de Stable Diffusion et Midjourney. Deux plates-formes très à la mode, qui permettent de générer de superbes illustrations à partir de quelques phrases renseignées par l’utilisateur. Le problème, selon les plaignantes ? Elles ont été entraînées et fonctionnent grâce à des millions d’œuvres, notamment les leurs, utilisées sans le consentement de leurs auteurs et autrices. Un gigantesque piratage, en somme, qui viendrait, en plus, concurrencer leur propre travail.

Sarah Andersen, Karla Ortiz et Kelly McKernan, les trois plaignantes, sont loin d’être des inconnues. Andersen a acquis une notoriété importante avec sa BD en ligne Sarah’s Scribbles. Karla Ortiz, quant à elle, travaille pour de nombreux clients prestigieux, comme Ubisoft, HBO ou Marvel. Autant dire que leurs voix pèsent. Et que cette confrontation juridique pourrait avoir un énorme impact sur le marché naissant des IA génératives.

Des « copies non autorisées »

Que reprochent exactement les artistes à Stability AI (qui a créé Stable Diffusion), Midjourney mais aussi à DeviantArt, vénérable plate-forme pour artistes qui a récemment lancé un outil de création d’images basé sur Stable Diffusion ? Le site qui résume la plainte est clair à ce sujet : « Stable Diffusion contient des copies non autorisées de millions -et possiblement de milliards- d’images soumises au copyright. Ces copies ont été réalisées sans le consentement des artistes ». Le même reproche est fait à Midjourney.

Il va même jusqu’à comparer la base d’images LAION, utilisée pour entraîner Stable Diffusion et riche de 5 milliards d’images, au plus grand braquage d’œuvres d’art de l’histoire : « Même en supposant des dommages de 1 $ par image, la valeur de ce détournement serait d’environ 5 milliards de dollars. À titre de comparaison, le plus grand vol d’art jamais réalisé a été le vol, en 1990, de 13 œuvres d’art du musée Isabella Stewart Gardner, d’une valeur actuelle estimée à 500 millions de dollars. »

Ne pas confondre « copie » et « entraînement »

Mais comme toujours avec les technologies émergentes, les choses sont loin d’être aussi simples. Certes, la capacité de ces outils à générer de nouvelles images est le fruit d’une analyse de milliards de photos, d’illustrations, de peintures piochées sur la Toile. Et ils ont été bel et bien été « entraînés » avec des images qui n’étaient pas toutes libres de droit, loin de là. Il suffit de chercher, dans un catalogue qui ne recense pourtant qu’une petite partie de la base LAION, les noms de Kalia Ortiz ou de Kelly McKernan pour découvrir certaines de leurs œuvres.

Mais est-ce suffisant pour dire qu’il y a copie illégale, comme l’indique la plainte, et que les images générées sont « dérivées » de ces copies ? Ce n’est pas l’avis de nombreux experts en intelligence artificielle, qui estiment que cette plainte témoigne d’une certaine méconnaissance du fonctionnement des technologies de machine learning. Et qu’elle confond, pour résumer, « entraînement » et « copie ».

Les modèles dits « de diffusion » visés ici n’ont en effet copié aucune image. La base LAION n’en héberge même pas : elle pointe simplement vers des sites Web qui les contiennent. Ainsi, la plainte affirme que Stable Diffusion enregistre des « copies compressées des images d’entraînement » ce qui est faux. Et même impossible, tant le stockage nécessaire serait énorme. « Stable Diffusion ne stocke pas d’image et ne s’appuie pas sur une image existante pour en créer une autre. Il génère un visuel grâce à l’apprentissage qu’il a eu et des “paramètres” et “liaisons” qu’il en a fait » explique Olivier Martinez, Product Manager et fondateur de 255hex.ai.

On comprend toutefois la colère qui anime ces artistes, qui peuvent légitimement se sentir lésées. Et les erreurs techniques contenues dans la plainte n’interdisent pas de s’interroger sur cette affaire qui demeure éminemment complexe. Elle questionne des notions de copyright et de droit d’auteur une fois encore complètement dépassées par une technologie qui chamboule tout.

Au-delà de l’aspect technique, certains critiques de la plainte estiment qu’une IA a le droit de s’inspirer de l’œuvre d’un artiste, dans le cadre du « fair use », qui autorise aux États-Unis la transformation d’un contenu original soumis au copyright.

 

Et ce n’est qu’un début. On a appris aujourd’hui l’existence d’une autre affaire qui pourrait faire grand bruit. Getty Images, l’une des plus grandes banque d’images du monde, menace aussi d’assigner en justice Stability AI. Et l’accuse d’avoir « copié et traité illégalement des millions d’images protégées par le droit d’auteur et les métadonnées associées détenues ou représentées par Getty Images ».

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Stable Diffusion Litigation


Eric LE BOURLOUT
Votre opinion
  1. En effet, ce sujet pourrait faire grand bruit, car ce qui vaut pour les images vaut aussi pour les textes… La question est s’il est possible de faire marche arrière, car les banques de données existent belle et bien et les IAs ont déjà fait leur travail… Le résultat pourrait consister en des amendes rétroactives / des taxes de droits d’auteur pour ce genre d’entreprises!

  2. Ces ‘banques de donnéees” auxquelles vous faites allusion _et notamment celle (LAION) cree par STABILTY° ne CONTIENNENT AUCUNE IMAE. Ce serait d ailleurs une tache quasi impossible étant donné l immensité de la capacité requise. Elles ne contiennent que des LIENS vers des images .
    Ce sont les applis crées par STABILITY qui vont chercher certaines images (choisies par l Opérateur) et les superposer pour créer une nouvelle image differente des deux autres.
    Cette rsponsabilité est celle de l Operateur, elle n est pas celle de LAION ou du créateur de l appli ‘STABILITY.
    C est cela qui complique tout
    Il est a remarquer que si le createur de la nouvelle image veut lui aussi revendiquer un copyright, il FAUT , il est OBLIGATOIRE, que cette image ait eté crée par une intervention humaine et non par une machine
    En effet le droit US ne reconnait par à une machine la possibilité de creer une oeuvre originale , il faut que ce soit un être humain
    En Europe le droit d’auteur lui aussi ne rconnait pas aux machines la qualité d’auteur
    C est d’ailleurs cet aspect juridique qui a cassé l élan des NFT , qui se positionnaient comme oeuvre d’art, alors que le droit leur nie ce statut
    Maintenant que Getty images attaque lui aussi STABILITY, l issue de l affaire parait claire: l opérateur qui utilise les plateformes et applis de STABILTIY devra obtenir les licences (des détenteurs d images premieres); Ce sera a STABILITY de négocier cela pour ses utilisateurs. Mais a quelles conditions ? et est ce que ce sera retrospectif ?? THat is the question

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *