Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2618

Incidents associés

Incident 42112 Rapports
Stable Diffusion Allegedly Used Artists' Works without Permission for AI Training

Loading...
Les artistes peuvent désormais se retirer de la prochaine version de Stable Diffusion
technologyreview.com · 2022

Les artistes auront la possibilité de se retirer de la prochaine version de l'un des générateurs d'IA texte-image les plus populaires au monde, Stable Diffusion, la société à l'origine de celui-ci a [annoncé](https://twitter.com/EMostaque/status /1603147709229170695?s=20&t=4cJ1ZW8q71HwJ4kk1RmTJw).

Stability.AI travaillera avec Spawning, une organisation fondée par le couple d'artistes Mat Dryhurst et Holly Herndon, qui ont créé un site Web appelé HaveIBeenTrained qui permet aux artistes de rechercher leurs œuvres dans les données. ensemble qui a été utilisé pour entraîner la diffusion stable. Les artistes pourront sélectionner les œuvres qu'ils souhaitent exclure des données de formation.

La décision fait suite à un débat public houleux entre artistes et entreprises technologiques sur la manière dont les modèles d'IA texte-image devraient être formés. Stable Diffusion est basé sur l'ensemble de données open source LAION-5B, qui est construit en grattant des images sur Internet, y compris des œuvres d'artistes protégées par le droit d'auteur. Certains noms et styles d'artistes sont devenus populaires [invites pour les artistes en herbe en herbe](https://www.technologyreview.com/2022/09/16/1059598/this-artist-is-dominating-ai-generated-art-and -il-n'est-pas-content-de-ça/).

Dryhurst a déclaré au MIT Technology Review que les artistes ont "environ quelques semaines" pour se retirer avant que Stability.AI ne commence à former son prochain modèle, Stable Diffusion 3.

L'espoir, dit Dryhurst, est que jusqu'à ce qu'il y ait des normes ou une réglementation claires de l'industrie concernant l'art de l'IA et la propriété intellectuelle, le service de désactivation de Spawning augmentera la législation ou compensera son absence. À l'avenir, dit Dryhurst, les artistes pourront également choisir d'inclure leurs œuvres dans des ensembles de données.

Un porte-parole de Stability.AI a déclaré au MIT Technology Review : "Nous écoutons les artistes et la communauté et travaillons avec des collaborateurs pour améliorer l'ensemble de données. Cela implique de permettre aux gens de se retirer du modèle et également de s'inscrire lorsqu'ils ne sont pas déjà inclus.

Mais Karla Ortiz, artiste et membre du conseil d'administration de la Concept Art Association, une organisation de défense des artistes travaillant dans le divertissement, dit qu'elle ne pense pas que Stability.AI va assez loin.

Le fait que les artistes doivent se retirer signifie «que chaque artiste dans le monde est automatiquement inscrit et que notre choix est supprimé», dit-elle.

"La seule chose que Stability.AI peut faire est le dégorgement algorithmique, où ils détruisent complètement leur base de données et ils détruisent complètement tous les modèles qui contiennent toutes nos données", dit-elle.

La Concept Art Association lève 270 000 $ pour embaucher un lobbyiste à plein temps à Washington, DC, dans l'espoir d'apporter des changements aux lois américaines sur le droit d'auteur, la confidentialité des données et le travail afin de garantir la protection de la propriété intellectuelle et des emplois des artistes. Le groupe souhaite mettre à jour les lois sur la propriété intellectuelle et la confidentialité des données pour tenir compte des nouvelles technologies d'IA, obliger les entreprises d'IA à adhérer à un code d'éthique strict et travailler avec les syndicats et les groupes industriels qui s'occupent du travail créatif.

"On a vraiment l'impression que nous, les artistes, sommes le canari dans la mine de charbon en ce moment", déclare Ortiz.

Ortiz dit que le groupe sonne l'alarme à toutes les industries créatives que les outils d'IA arrivent pour les professions créatives "très rapidement" et "la façon dont cela se fait est extrêmement exploitante".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd