Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2989

Incidents associés

Incident 42112 Rapports
Stable Diffusion Allegedly Used Artists' Works without Permission for AI Training

Loading...
Cet outil pourrait protéger les artistes de l'art généré par l'IA qui vole leur style
nytimes.com · 2023

Les robots viendraient pour les emplois des humains. C'était garanti. L'hypothèse générale était qu'ils prendraient en charge le travail manuel, soulevant de lourdes palettes dans un entrepôt et triant le recyclage.

Aujourd'hui, des avancées significatives en [intelligence artificielle] générative (https://www.nytimes.com/topic/subject/artificial-intelligence) signifient que les robots arrivent également pour les artistes.

Les images générées par l'IA, créées avec de simples invites textuelles, sont gagnant des concours d'art, [ornant] (https://gizmodo.com/tor-book-ai-art-cover-christopher-paolini-fractalverse-1849904058) [couvertures de livres](https://twitter.com/torbooks/status/1603480118168633344?ref_src=twsrc% 5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1603480118168633344%7Ctwgr%5E49d1a62841c2f96d120cece770b9962bb26f32b2%7Ctwcon%5Es1_&ref_url=https%3A%2F%2F gizmodo.com%2Fembed%2Finset%2Fiframe%3Fid%3Dtwitter-1603480118168633344autosize%3D1), et la promotion de "Casse-Noisette, ” laissant les artistes humains inquiets pour leur avenir.

La menace peut sembler très personnelle. Un générateur d'images appelé Stable Diffusion a été formé pour reconnaître les modèles, les styles et les relations en analysant des milliards d'images collectées sur l'Internet public, ainsi que du texte décrivant leur contenu.

Parmi les images sur lesquelles il s'est entraîné figuraient des œuvres de Greg Rutkowski, un artiste polonais spécialisé dans les scènes fantastiques mettant en scène des dragons et des êtres magiques.

Voir le travail de M. Rutkowski à côté de son nom a permis à l'outil d'apprendre son style suffisamment efficacement pour que lorsque Stable Diffusion a été rendu public l'année dernière, son nom [est devenu un raccourci](https://www.technologyreview.com/2022/09/ 16/1059598/this-artist-is-dominating-ai-generated-art-and-hes-not-happy-about-it/) pour les utilisateurs qui souhaitaient générer des images oniriques et fantaisistes.

Un artiste a remarqué que le [lunatique A.I. selfies] (https://www.nytimes.com/2022/12/07/style/lensa-ai-selfies.html) qui est sorti de l'application virale Lensa avait [des signatures fantomatiques] (https://www.artnews .com/art-news/news/signatures-lensa-ai-portraits-1234649633/) sur eux, imitant ce que l'A.I. avait appris des données sur lesquelles il s'était entraîné : les artistes qui font des portraits signent leur travail. "Ces bases de données ont été construites sans aucun consentement, aucune permission des artistes", a déclaré M. Rutkowski.

Depuis la sortie des générateurs, M. Rutkowski a déclaré avoir reçu beaucoup moins de demandes d'auteurs débutants qui avaient besoin de couvertures pour leurs romans fantastiques. Pendant ce temps, Stability AI, la société derrière Stable Diffusion, a récemment levé 101 millions de dollars auprès d'investisseurs et est maintenant évaluée à plus de 1 milliard de dollars.

"Les artistes ont peur de publier de nouvelles œuvres", a déclaré le professeur d'informatique Ben Zhao. Mettre de l'art en ligne, c'est ainsi que de nombreux artistes font la publicité de leurs services, mais maintenant ils ont "peur de nourrir ce monstre qui leur ressemble de plus en plus", a déclaré le professeur Zhao. "Cela met fin à leur modèle commercial."

Cela a conduit le professeur Zhao et une équipe de chercheurs en informatique de l'Université de Chicago à concevoir un outil appelé Glaze qui vise à contrecarrer l'IA. modèles de l'apprentissage du style d'un artiste particulier. Pour concevoir l'outil, qu'ils prévoient de rendre disponible en téléchargement, les chercheurs ont interrogé plus de 1 100 artistes et ont travaillé en étroite collaboration avec Karla Ortiz, illustratrice et artiste basée à San Fransisco.

Supposons, par exemple, que Mme Ortiz souhaite publier de nouveaux travaux en ligne, mais ne souhaite pas qu'ils soient transmis à A.I. pour le voler. Elle peut télécharger une version numérique de son travail sur Glaze et choisir un type d'art différent du sien, par exemple abstrait.

L'outil apporte ensuite des modifications à l'art de Mme Ortiz au niveau du pixel que Stable Diffusion associerait, par exemple, aux taches de peinture éclaboussées de Jackson Pollock.

À l'œil humain, l'image Glazed ressemble toujours à son travail, mais le modèle d'apprentissage par ordinateur reprendrait quelque chose de très différent. Il est similaire à un outil créé précédemment par l'équipe de l'Université de Chicago pour [protéger les photos des systèmes de reconnaissance faciale](https://www.nytimes.com/2020/08/03/technology/fawkes-tool-protects-photos-from- reconnaissance faciale.html).

Lorsque Mme Ortiz a publié son travail Glazed en ligne, un générateur d'images formé sur ces images ne serait pas en mesure d'imiter son travail. Une invite avec son nom conduirait plutôt à des images dans un style hybride de ses œuvres et de Pollock.

"Nous retirons notre consentement", a déclaré Mme Ortiz. Les outils de génération d'IA, dont beaucoup facturent aux utilisateurs des frais pour générer des images, "ont des données qui ne leur appartiennent pas", a-t-elle déclaré. "Ces données sont mes œuvres d'art, c'est ma vie. Cela ressemble à mon identité.

L'équipe de l'Université de Chicago a admis que son outil ne garantissait pas la protection et pouvait conduire à des contre-mesures de la part de quiconque s'engageant à imiter un artiste en particulier. "Nous sommes des pragmatiques", a déclaré le professeur Zhao. «Nous reconnaissons le long délai probable avant que la loi, les réglementations et les politiques ne rattrapent leur retard. C'est pour combler ce vide. »

De nombreux experts juridiques comparent le débat sur l'utilisation sans entraves du travail des artistes pour l'IA générative. aux problèmes de piratage au début d'Internet avec des services comme Napster qui permettaient aux gens de consommer de la musique sans payer. L'IA générative les entreprises sont déjà confrontées à un déluge similaire de contestations judiciaires.

Le mois dernier, Mme Ortiz et deux autres artistes ont déposé un recours collectif en Californie contre des entreprises d'art- générer des services, y compris Stability AI, en faisant valoir des violations du droit d'auteur et du droit de publicité.

"Les allégations de cette poursuite représentent un malentendu sur la façon dont l'IA générative. les œuvres technologiques et la loi entourant le droit d'auteur », a déclaré la société dans un communiqué. Stability AI a également été poursuivi par Getty Images pour copier des millions de photos sans licence. "Nous examinons les documents et répondrons en conséquence", a déclaré une porte-parole de la société.

Jeanne Fromer, professeur de droit de la propriété intellectuelle à l'Université de New York, a déclaré que les entreprises pourraient avoir un argument solide en matière d'utilisation équitable. "Comment les artistes humains apprennent-ils à créer de l'art?" dit le professeur Fromer. «Ils copient souvent des choses et ils consomment beaucoup d'œuvres d'art existantes et apprennent des modèles et des éléments du style, puis créent de nouvelles œuvres d'art. Et donc à un certain niveau d'abstraction, on pourrait dire que les machines apprennent à faire de l'art de la même manière.

Dans le même temps, a déclaré le professeur Fromer, le but de la loi sur le droit d'auteur est de protéger et d'encourager la créativité humaine. "Si nous nous soucions de protéger une profession_", a-t-elle déclaré, "ou si nous pensons que la création de l'art est importante pour qui nous sommes en tant que société, nous voudrons peut-être protéger les artistes."

Une organisation à but non lucratif appelée Concept Art Association a récemment collecté plus de 200 000 $ via GoFundMe pour engager une société de lobbying afin d'essayer de persuader le Congrès de protéger propriété intellectuelle des artistes. "Nous sommes confrontés aux géants de la technologie avec des budgets illimités, mais nous sommes convaincus que le Congrès reconnaîtra que la protection de la propriété intellectuelle est le bon côté de l'argument", ont déclaré les fondatrices de l'association, Nicole Hendrix et Rachel Meinerding.

Raymond Ku, professeur de droit d'auteur à la Case Western Reserve University, a prédit que les créateurs d'art, plutôt que de simplement prendre de l'art extrait d'Internet, finiront par développer une sorte de "système contractuel privé qui assure un certain degré de compensation au créateur".

En d'autres termes, les artistes pourraient être payés un montant nominal lorsque leur art est utilisé pour former A.I. et inspirer de nouvelles images, similaires à la façon dont les musiciens sont payés par les sociétés de streaming musical.

Andy Baio, un écrivain et technologue qui [a examiné les données de formation] (https://waxy.org/2022/08/exploring-12-million-of-the-images-used-to-train-stable-diffusions-image -generator/) utilisé par Stable Diffusion, a déclaré que ces services peuvent imiter le style d'un artiste, car ils voient le nom de l'artiste à côté de leur travail encore et encore. "Vous pouvez aller supprimer des noms d'un ensemble de données", a déclaré M. Baio, pour empêcher l'IA. d'apprendre explicitement le style d'un artiste.

Un service semble déjà avoir fait quelque chose dans ce sens. Lorsque Stability AI a publié une nouvelle version de Stable Diffusion en novembre, il y a eu un changement notable : l'invite "Greg Rutkowski" ne fonctionnait plus pour obtenir des images. dans son style, un développement noté par le directeur général de la société, Emad Mostaque.

Les fans de Stable Diffusion ont été déçus. "Qu'as-tu fait à Greg", a écrit l'un d'eux sur un forum Discord officiel fréquenté par M. Mostaque. Il a rassuré les utilisateurs du forum qu'ils pouvaient personnaliser le modèle. "S'entraîner sur Greg ne sera pas trop difficile", a répondu une autre personne.

M. Rutkowski a déclaré qu'il prévoyait de commencer Glazing son travail.

Une correction a été apportée le 13 février 2023 : Une version antérieure de cet article comportait une erreur dans le nom de l'université où Raymond Ku est professeur de droit d'auteur. Il s'agit de l'Université Case Western Reserve, et non de l'Université Case Western.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd