Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2577

Incidents associés

Incident 42112 Rapports
Stable Diffusion Allegedly Used Artists' Works without Permission for AI Training

Loading...
Les artistes attaquent l'IA : pourquoi le nouveau procès va trop loin
copyrightlately.com · 2023

**Un groupe d'artistes a intenté une action en justice pour violation du droit d'auteur, la première du genre, contre les développeurs d'outils artistiques d'IA populaires, mais se sont-ils mis dans un coin ? ** Selon à qui vous demandez, l'art généré par l'IA est soit sur le point d'enfoncer un [poignard photoréaliste dans la gorge de millions d'artistes commerciaux] (https://www.forbes.com/sites/robsalkowitz/2022/09/16 /ai-is-coming-for-commercial-art-jobs-can-it-be-stopped) ou n'est qu'une [mode kitsch sans valeur esthétique durable](https://thegradient.pub/the-past-present -et-futur-de-l-art-ai/). Bien que la vérité se situe presque certainement quelque part entre les deux, on ne peut nier les préoccupations légitimes exprimées par de nombreux artistes quant à la manière dont les outils d'IA actuels ont été formés et leur potentiel à perturber les moyens de subsistance créatifs. ## Andersen contre Stability AI Ltd. Le 13 janvier, trois de ces artistes, Sarah Andersen, Kelly McKernan et Karla Ortiz—ainsi qu'une catégorie proposée de millions d'autres potentiellement—a intenté la première action en justice pour violation du droit d'auteur de ce type ([plainte ici](https://copyrightlately.com/ pdfviewer/andersen-v-stability-ai-complaint/)) contre les développeurs de plusieurs outils de génération d'art AI populaires. Les défendeurs incluent Stability AI (développeur de Stable Diffusion et [DreamStudio](https:// dreamstudio.ai/)), Midjourney (qui a intégré la Stable Diffusion open-source dans son propre Discord et [web-based](https://www.midjourney .com/app) et DeviantArt (qui a récemment lancé l'application DreamUp, également basée sur la plateforme de Stable Diffusion ). Open AI, qui a créé le programme populaire Dall-E 2, n'a pas été nommé dans le procès, probablement parce que le contenu de ses données de formation n'a pas été rendu public. Au cours de la semaine dernière, le procès des plaignants a fait l'objet de milliers d'articles qui ont largement repris le principal sujet de discussion de la plainte : que les générateurs d'images IA ne sont rien de plus que "un outil de collage du 21e siècle qui remixe les œuvres protégées par des millions des artistes dont le travail a été utilisé comme données de formation. ” Une fois que les premiers titres auront suivi leur cours, l'équipe juridique des plaignants se retrouvera avec la tâche décidément plus difficile de prouver leur cas. Malheureusement, je pense que les membres de la communauté artistique (et les membres putatifs de la classe) seront découragés d'apprendre que de nombreux faits et théories juridiques sous-jacents aux allégations des plaignants ne correspondent pas aux extraits sonores, et peuvent même blesser les artistes plus qu'ils ne les aident. ## La plainte ne décrit pas avec précision le fonctionnement des outils d'IA des défendeurs ### Les modèles de diffusion ne créent pas de collages En fait, la plainte déforme le fonctionnement réel des modèles de diffusion d'IA comme Stable Diffusion. Ces outils ne sont pas comme une sorte de Megamix DJ Earworm échantillonnant des éléments d'une base de données d'images et les mélangeant ensemble. Comme je l'ai noté dans un article précédent, les programmes utilisent les données des images d'entraînement et leur texte associé pour identifier les qualités essentielles des objets et découvrir les relations entre leurs éléments fondamentaux. Une fois formés, les outils peuvent créer non pas des "images apparemment nouvelles", comme l'affirment les plaignants, mais des œuvres entièrement nouvelles à partir de zéro. Pour utiliser un exemple simple, disons que le programme d'IA analyse les données de millions de paires texte-image contenant le mot "tables". L'outil apprendra qu'une table est un meuble avec un ou plusieurs pieds et un dessus plat. Il apprendra que les tables ont le plus souvent quatre pieds, mais pas toujours ; que les tables trouvées dans une salle à manger sont utilisées pour que les personnes assises prennent leurs repas, tandis que les tables trouvées à côté d'un lit sont utilisées pour contenir des objets comme des réveils ; que les tables n'ont pas besoin d'être fabriquées à partir d'un matériau particulier ou d'avoir une couleur particulière, etc. L'outil peut alors appliquer sa connaissance des tables aux connaissances qu'il a acquises sur les choix esthétiques, les styles et les perspectives, le tout en route vers la création d'un nouvelle image qui n'a jamais existé auparavant. Il n'y a pas de "couper-coller" impliqué. (Si vous souhaitez approfondir le fonctionnement de tout cela, je vous recommande [de suivre le blog d'Andres Guadamuz sur le sujet] (https://www.technollama.co.uk/artists-file-class-action- avec une bonne compréhension de la technologie, nous pouvons voir que la description répétée de la plainte de Stable Diffusion comme un "outil de collage du 21e siècle", bien que peut-être accrocheuse, simplement n'est pas exact. ### Stable Diffusion ne stocke pas de copies des images d'entraînement La plainte dénature également Stable Diffusion en affirmant que les images utilisées pour former le modèle sont "stockées et incorporées" dans l'outil en tant que "copies compressées". Le modèle actuel de diffusion stable utilise environ 5 gigaoctets de données. Rien de tout cela n'inclut des copies d'images. Il serait physiquement impossible de copier les 5 milliards d'images utilisées pour former l'ensemble de données dans un fichier de 5 Go d'une manière qui permettrait à l'outil de cracher des représentations de ces images, peu importe la taille que vous avez essayé de les compresser. La plainte donne l'exemple d'une invite textuelle pour la phrase "un chien portant une casquette de baseball en mangeant de la glace" et affirme que le système "a du mal" à générer une image basée sur cette invite car bien qu'il existe de nombreuses photos de chiens, casquettes de baseball et crème glacée parmi les images d'entraînement, il y a "peu de chances qu'il y ait des images qui combinent les trois". Un système de diffusion latente ne peut pas illustrer cette combinaison d'objets, affirment les plaignants, "car il ne peut jamais dépasser les limites de ses images d'entraînement". Cela pourrait être vrai si Stable Diffusion devait réellement localiser une image particulière de la même manière qu'un moteur de recherche, mais comme ce n'est pas comment l'outil fonctionne, il m'a fallu environ quinze secondes pour taper cette invite dans Midjourney et obtenir un résultat utilisable : # # Droits de reproduction contre droits dérivés Une meilleure compréhension du fonctionnement réel de la technologie nous permet de nous tourner vers les théories juridiques de la plainte. ### Entrées Lorsqu'il s'agit d'actions potentiellement illicites commises par les développeurs d'outils d'IA, le candidat le plus probable est le grattage initial (c'est-à-dire la reproduction) d'images afin de former le modèle. La question de savoir si ce comportement constitue une contrefaçon pouvant donner lieu à une action ou s'il s'agit plutôt d'un usage loyal protégé dépendra en grande partie de l'évaluation par le tribunal de la question de savoir si les images ont été copiées et utilisées à des fins de transformation (semblable à [l'outil de recherche de livres de Google](https://scholar. google.com/scholar_case?case=2220742578695593916 ) ou le logiciel de détection de plagiat Turnitin), mis en balance avec la nature commerciale de ces outils et leur capacité à impact sur le marché des licences pour les œuvres sous-jacentes. Comme je l'ai noté dans mon article précédent sur l'art de l'IA, les outils d'IA ne copient pas tellement les images pour accéder à leur création expression pour identifier les motifs dans les images et les légendes. De plus, les images originales numérisées dans ces bases de données, contrairement à l'affichage d'extraits de livre de Google, ne sont jamais montrées aux utilisateurs finaux. Cela rend sans doute l'utilisation d'œuvres protégées par le droit d'auteur par Stable Diffusion encore plus transformatrice que Google Recherche de Livres. Étonnamment, la plainte des plaignants ne se concentre pas beaucoup sur la question de savoir si la réalisation de copies à l'étape intermédiaire pendant le processus de formation viole leurs droits de reproduction exclusifs en vertu de la Loi sur le droit d'auteur. Étant donné que les images de formation ne sont pas stockées dans le logiciel lui-même, le grattage initial est vraiment la seule reproduction qui a eu lieu. ### Sorties La plainte n'allègue pas non plus que des images output sont des reproductions enfreintes de l'une des œuvres des plaignants. En effet, les plaignants admettent qu'aucune des images fournies en réponse à une invite de texte particulière "n'est susceptible de correspondre étroitement à une image spécifique dans les données de formation". Au lieu de cela, le procès repose sur une affirmation beaucoup plus radicale et audacieuse, à savoir que chaque image produite par ces outils d'IA est nécessairement une "œuvre dérivée" illégale et contrefaisante basée sur les milliards d'images protégées par le droit d'auteur utilisées pour former les modèles. Cette allégation est factuellement erronée et juridiquement suspecte ; c'est aussi aller trop loin d'une manière qui pourrait en fait saper le travail de nombreux artistes qui sont membres de la classe proposée. Mais avant d'en arriver là, nous devons nous poser une question fondamentale : qu'est-ce qu'une œuvre dérivée ? ## Parlons des œuvres dérivées Sous réserve de l'utilisation équitable et d'autres moyens de défense, le titulaire du droit d'auteur a le droit exclusif [de préparer des œuvres dérivées basées sur l'œuvre protégée] (https://www.law.cornell.edu/uscode/text/ 17/106). Vous pourriez supposer que le concept d'« œuvre dérivée » en vertu de la loi sur le droit d'auteur serait simple à définir. Vous auriez tort. Bien sûr, il y a une définition incluse dans la loi de 1976 sur le droit d'auteur elle-même, mais des barils d'encre ont été versés par des avocats du droit d'auteur, des universitaires et des juges essayant de comprendre ce que cela signifie réellement. ### La définition de la Loi sur le droit d'auteur est large, mais... Commençons par la définition de la Loi sur le droit d'auteur : > Une « œuvre dérivée » est une œuvre basée sur une ou plusieurs œuvres préexistantes, comme une traduction, un arrangement musical, une dramatisation, une fictionnalisation , version cinématographique, enregistrement sonore, reproduction d'art, abrégé, condensation ou toute autre forme sous laquelle une œuvre peut être refondue, transformée ou adaptée. > > [17 U.S.C. § 101](https://www.law.cornell.edu/definitions/uscode.php?width=840&height=800&iframe=true&def_id=17-USC-1602536950-364936160&term_occur=44&term_src =) Notez qu'une œuvre dérivée est définie comme une c'est "basé sur" une ou plusieurs œuvres préexistantes. C'est probablement le concept sur lequel la plainte des plaignants s'appuie lorsqu'elle affirme que la sortie produite par les outils d'art de l'IA est "nécessairement" dérivée de l'ensemble de données d'œuvres préexistantes protégées par le droit d'auteur. ### Les œuvres dérivées doivent incorporer une partie de l'œuvre sous-jacente Bien que la définition de « œuvre dérivée » soit large, cela ne signifie pas que toute nouvelle œuvre vaguement « dérivé » d'une autre œuvre est considérée comme une œuvre dérivée, et encore moins une œuvre contrefaisante. Comme je l'ai noté dans quelques discussions Twitter et Mastodon la semaine dernière (suivez-moi ici et ici), qu'une image particulière générée par un outil d'art IA soit ou non un "dérivé travail » est finalement sans rapport avec la question de la contrefaçon. L'histoire législative de la loi de 1976 sur le droit d'auteur explique que pour violer le droit d'un artiste sur les œuvres dérivées, une nouvelle œuvre doit incorporer une partie du travail sous-jacent. Elle donne l'exemple d'une composition musicale inspirée d'un roman, qui ne constituerait normalement pas une contrefaçon. Dans le neuvième circuit, la juridiction dans laquelle le recours collectif contre Stability AI et les autres défendeurs a été déposé, le tribunal de Litchfield v. Spielberg a estimé qu'une œuvre n'est pas une œuvre dérivée contrefaisante à moins qu'elle ne soit « substantiellement similaire » à une œuvre préexistante. Ce n'est qu'alors que le premier a « incorporé » le second. Fait intéressant, alors que les plaignants allèguent que chaque image produite par Stable Diffusion est "nécessairement une œuvre dérivée" de toutes les images d'entraînement, ils admettent qu'"aucune des images de sortie Stable Diffusion fournies en réponse à une invite de texte particulière n'est susceptible d'être un proche correspond à une image spécifique dans les données d'entraînement. » Cette reconnaissance semble jeter une clé géante dans la revendication de travail dérivé des plaignants qui, comme je l'ai noté plus tôt, est vraiment au cœur de leur action en justice. Stable Diffusion peut certainement être persuadé de générer une œuvre dérivée d'éléments trouvés dans une autre œuvre, dont certains peuvent être protégés séparément par le droit d'auteur. En particulier, les images de personnages populaires comme Mickey Mouse, Homer Simpson et SpongeBob SquarePants qui sont partout sur Internet peuvent être facilement générées dans des paramètres uniques. Essentiellement, l'outil peut apprendre les éléments essentiels de SpongeBob de la même manière qu'il apprend les attributs essentiels d'un tableau. Cela explique également pourquoi des fragments de signatures d'artistes ou des morceaux de filigrane de Getty Images peuvent apparaître dans les images de sortie. Il existe des moyens de tempérer l'effet des modèles de « surentraînement » sur les images omniprésentes, mais il est important de se rappeler que même si une image de sortie générée est originale, elle peut toujours être en infraction si elle incorpore de manière substantielle des éléments protégeables d'une autre œuvre. Il devrait être clair maintenant que déterminer si des images de sortie particulières enfreignent nécessite une comparaison image par image, et un recours collectif n'est vraiment pas le meilleur moyen pour ce genre de chose. ### Le danger d'aller trop loin Il y a un autre problème, plus fondamental, avec l'argument des plaignants. Si chaque image de sortie générée par les outils d'IA est nécessairement une œuvre dérivée contrefaisante simplement parce qu'elle reflète ce que l'outil a appris en examinant des œuvres d'art existantes, qu'est-ce que cela pourrait dire sur les œuvres générées par les plaignants eux-mêmes ? Les œuvres d'innombrables membres potentiels de la classe pourraient refléter, de la même manière atténuée, des œuvres d'art préexistantes que les artistes ont étudiées au fur et à mesure qu'ils apprenaient leur métier. Si elle était adoptée par le tribunal, l'affirmation générale des plaignants aurait des conséquences désastreuses pour les artistes mêmes que le procès tente de protéger. Chaque fois que les artistes produisent des œuvres créatives, ils s'appuient sur ce qu'ils ont vu et vécu tout au long de leur vie. En ce sens, tout travail créatif humain est dérivé. De nombreux artistes travaillent spécifiquement pour s'appuyer sur ou remixer des styles, des techniques et même des expressions d'abord créées par d'autres artistes. ### Une question de style Pour cette raison, la suggestion connexe de la plainte selon laquelle un outil capable de créer de l'art dans le "style" d'un autre artiste est illégal est également dangereuse. Le style est certainement un élément qui peut et doit être pris en compte dans une analyse globale de similarité substantielle, mais interdire les œuvres qui sont simplement « inspirées » – ou même qui copient – des techniques artistiques préexistantes étoufferait artificiellement le développement créatif humain. Les tribunaux qui ont examiné cette question ont estimé que le style est un ingrédient de l'expression, mais que à lui seul, il n'est pas protégeable. Ainsi, même si un artiste était le premier à imaginer le style de l'anime, par exemple, « il ne pourrait avoir un droit d'auteur protégeable que sur son expression spécifique de cette idée ; il ne pouvait pas revendiquer tous les anime qui ont été ou seront produits. Dans un autre exemple, un tribunal a conclu que l'affiche du film des défendeurs avait illégalement copié le dessin animé New Yorker des plaignants. C'est parce que les deux œuvres [non seulement utilisaient le même style « sommaire, fantaisiste », mais le faisaient en utilisant le même sujet, le même thème et même des détails concrets identiques d'une manière sensiblement similaire](https://scholar.google. com/scholar_case?case=75500237070421047 ). C'est inapproprié. D'un autre côté, un artiste est parfaitement libre d'utiliser le même sujet et le même style qu'un autre artiste "[tant que le second artiste ne copie pas substantiellement [l'expression spécifique du premier artiste] de son idée](https:// scholar.google.com/scholar_case?case=2682672355486619002 ). ## La réclamation relative au droit à la publicité Notez que les plaignants ont également fait valoir un droit distinct à la réclamation en matière de publicité en vertu de la loi californienne basée sur la capacité de Stable Diffusion à générer des sorties dans le "style" d'un artiste particulier lorsque le nom de l'artiste est invoqué dans une invite. La raison pour laquelle les outils peuvent reconnaître certains noms et styles d'artistes est la même pour laquelle ils reconnaissent des objets de mobilier - il s'agit d'informations factuelles qui sont souvent incluses dans les légendes ou le texte alternatif associé aux images de formation. C'est une théorie intéressante, mais je ne pense pas que cela fonctionne finalement à moins qu'il n'y ait des preuves que les défendeurs ont utilisé les noms des plaignants d'une manière directement liée à la promotion des outils ou d'une autre manière ouvertement commerciale. S'il ne s'agit en réalité que d'une tentative détournée de contrôler les œuvres artistiques utilisées dans les ensembles de formation, la revendication est probablement préemptée par la loi sur le droit d'auteur. ## Responsabilité du fait d'autrui Il est également important de se rappeler que toutes les images dérivées potentiellement contrefaisantes produites par Stable Diffusion sont créées en réponse aux invites saisies par les individus utilisant les programmes, et non par les défendeurs eux-mêmes. Bien que les plaignants aient déposé une plainte pour infraction par procuration basée sur la conduite des utilisateurs, cela ne me semble pas particulièrement solide. Pour être responsable du fait d'autrui de la violation du droit d'auteur d'une autre personne, un défendeur doit avoir le droit et la capacité de surveiller le contrefacteur direct. Stability AI et les autres accusés ne peuvent pas contrôler les invites saisies par les utilisateurs. Les outils destinés au public tels que Midjourney devraient pouvoir invoquer les dispositions de «sphère de sécurité» du DMCA en ce qui concerne le contenu généré par les utilisateurs sur les serveurs Discord publics. (Midjourney a mis en place un notice and takedown system à cet effet.) Mais les installations logicielles de Stable Diffusion sur les machines locales des utilisateurs sont beaucoup comme le logiciel peer-to-peer en cause dans MGM v. Grokster (qui a rejeté une action en responsabilité du fait d'autrui). Dans cette affaire, la Cour suprême a estimé qu'"aucune des communications entre les accusés et les utilisateurs ne fournit un point d'accès pour filtrer ou rechercher des fichiers contrefaits, puisque le matériel contrefait et les informations d'index ne transitent pas par les ordinateurs des accusés". De plus, comme je l'ai expliqué il y a quelque temps dans un article sur le logiciel d'extraction de flux YouTube, simplement parce qu'un outil particulier peut être utilisé à des fins illicites ne signifie pas automatiquement que le fabricant fait face à une responsabilité secondaire pour la distribution de l'outil. Le fabricant devrait prendre des mesures supplémentaires qui ont contribué à ou induit une infraction par les utilisateurs. Notamment, dans l'avis "Betamax" de 1984, Sony Corp. of America c. Universal City Studios, la Cour suprême des États-Unis a expressément statué que tant qu'un technologie est capable d'"utilisations substantielles sans contrefaçon", le fabricant ne pourrait être tenu responsable "simplement parce que l'équipement est utilisé par certaines personnes pour faire des reproductions non autorisées des œuvres des [demandeurs]". > Si la responsabilité du fait d'autrui doit être imposée à Sony dans ce cas, elle doit reposer sur le fait qu'elle a vendu de l'équipement avec une connaissance implicite du fait que ses clients peuvent utiliser cet équipement pour faire des copies non autorisées de matériel protégé par le droit d'auteur. Il n'y a aucun précédent dans le droit d'auteur pour l'imposition d'une responsabilité du fait d'autrui sur une telle théorie. > > Sony Corp. of Am. v. Universal City Studios, Inc., 464 U.S. 417, 419 (1984). ## Les limites de la loi La véritable préoccupation à l'origine du procès des plaignants est résumée dans l'introduction de la plainte, qui affirme que «les plaignants et le groupe cherchent à mettre fin à cette violation flagrante et énorme de leurs droits avant que leurs professions ne soient éliminées par un programme informatique entièrement alimenté par leur travail acharné. Cette préoccupation est compréhensible, mais ce n'est pas celle que le procès des plaignants est équipé pour résoudre. Les avocats des plaignants ont déclaré que "[Même en supposant des dommages-intérêts nominaux de 1 $ par image, la valeur de ce détournement serait d'environ 5 milliards de dollars] (https://stablediffusionlitigation.com/)." Bien sûr, c'est un grand nombre dans l'ensemble, mais cela rapporterait collectivement aux trois plaignants nommés moins de 250 $ sur la base des 242 œuvres qui, selon eux, ont été utilisées comme images de formation. (Notez que McKernan et Ortiz ne semblent pas détenir de droits d'auteur enregistrés, ce qui est nécessaire pour qu'ils soient de véritables plaignants en premier lieu.) Plus important encore, aucune indemnité ne remettrait le génie généré par l'IA dans la bouteille. Je dois également croire qu'un outil d'IA «d'origine éthique», formé uniquement avec des images obtenues via un modèle d'opt-in ou de licence, pourrait être programmé pour produire une sortie qui rivaliserait avec celle des modèles en cause dans le procès. Un tel outil pourrait éviter le bagage légal ou éthique de Stable Diffusion, mais ne ferait rien pour arrêter la prolifération de l'art généré par l'IA. Bien que la loi ne soit pas susceptible d'apporter beaucoup de réconfort aux plaignants, l'histoire peut le faire. Considérez qu'en 1859, le critique d'art français Charles Baudelaire a grommelé que si un nouveau développement technologique était "autorisé à compléter l'art dans certaines de ses fonctions, il l'aura bientôt supplanté ou tout simplement corrompu, grâce à la bêtise de la multitude qui est son allié naturel. Baudelaire parlait de photographie, mais il aurait aussi bien pu parler d'art généré par l'IA. La vérité est que de nombreuses innovations créatives - de l'avènement de Photoshop à l'adoption généralisée de la photographie numérique, en passant par l'introduction de l'animation 3D générée par ordinateur - ont rencontré une résistance. En fin de compte, chacune de ces technologies a été adoptée comme un outil, non de déplacement ou de corruption, mais de complément, permettant aux artistes de débloquer des formes et des styles d'expression créative entièrement nouveaux. Je surveillerai de près les développements juridiques dans Andersen v. Stability AI Ltd. et publiera des mises à jour ici sur Copyright Lately. En attendant, j'aimerais savoir ce que vous pensez du nouveau procès. Envoyez-moi un commentaire ci-dessous ou @copyrightlately sur les réseaux sociaux.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd