Incidentes Asociados

**Un grupo de artistas presentó una demanda por infracción de derechos de autor, la primera de su tipo, contra los desarrolladores de herramientas de arte de IA populares, pero ¿se arrinconaron? ** Dependiendo de a quién le pregunte, el arte generado por IA está listo para clavar una [daga fotorrealista en la garganta de millones de artistas comerciales] (https://www.forbes.com/sites/robsalkowitz/2022/09/16 /ai-is-coming-for-commercial-art-jobs-can-it-be-stopped) o es simplemente una [moda cursi sin valor estético duradero](https://thegradient.pub/the-past-present -y-futuro-del-ai-arte/). Si bien es casi seguro que la verdad se encuentra en algún punto intermedio, no se pueden negar las preocupaciones legítimas expresadas por muchos artistas sobre la forma en que se entrenaron las herramientas de IA actuales y su potencial para interrumpir los medios de vida creativos. ## Andersen v. Stability AI Ltd. El 13 de enero, tres de esos artistas, Sarah Andersen, Kelly McKernan y Karla Ortiz, junto con una clase propuesta de potencialmente millones más, presentó la primera demanda por infracción de derechos de autor de este tipo ([queja aquí](https://copyrightlately.com/ pdfviewer/andersen-v-stability-ai-complaint/)) contra los desarrolladores de varias herramientas populares de generación de arte de IA. Los demandados incluyen Stability AI (desarrollador de Stable Diffusion y [DreamStudio](https:// dreamstudio.ai/)), Midjourney (que empaquetó Stable Diffusion de código abierto en su propio Discord y [basado en la web](https://www.midjourney .com/app) y DeviantArt (que recientemente lanzó la aplicación DreamUp, también basada en la plataforma de Stable Diffusion ). Open AI, que creó el popular programa Dall-E 2, no fue mencionado en la demanda, probablemente porque el contenido de sus datos de entrenamiento no se ha hecho público. Durante la semana pasada, la demanda de los demandantes ha sido objeto de miles de artículos que han repetido en gran medida el tema de conversación clave de la demanda: que los generadores de imágenes de IA no son más que “una herramienta de collage del siglo XXI que remezcla las obras protegidas por derechos de autor de millones de artistas cuyo trabajo se utilizó como datos de capacitación. ” Después de que los titulares iniciales hayan seguido su curso, [el equipo legal de los demandantes] (https://stablediffusionlitigation.com/) tendrá la tarea decididamente más difícil de probar su caso. Desafortunadamente, creo que los miembros de la comunidad artística (y los supuestos miembros de la clase) se desanimarán al saber que muchos de los hechos y teorías legales que subyacen a las alegaciones de los demandantes no concuerdan con los fragmentos de sonido, e incluso pueden perjudicar a los artistas más de lo que ayudan. ## La demanda no describe con precisión cómo funcionan las herramientas de IA de los demandados ### Los modelos de difusión no crean collages Como cuestión de hecho, la demanda tergiversa cómo funcionan realmente los modelos de difusión de IA como Stable Diffusion. Estas herramientas no son como una especie de DJ Earworm megamix que toma muestras de fragmentos de una base de datos de imágenes y los combina. [Como señalé en una publicación anterior] (https://copyrightlately.com/using-ai-artwork-to-avoid-copyright-infringement/#h-outputs), los programas usan datos de imágenes de entrenamiento y su texto asociado para identificar las cualidades esenciales de los objetos y descubrir las relaciones entre sus elementos fundamentales. Una vez entrenadas, las herramientas pueden crear, no “imágenes aparentemente nuevas”, como afirman los demandantes, sino obras completamente nuevas desde cero. Para usar un ejemplo simple, digamos que el programa AI analiza datos de millones de pares de texto e imágenes que contienen la palabra "tablas". La herramienta aprenderá que una mesa es un mueble con una o más patas y una parte superior plana. Aprenderá que las mesas suelen tener cuatro patas, pero no siempre; que las mesas que se encuentran en un comedor se usan para que las personas sentadas coman, mientras que las mesas que se encuentran junto a una cama se usan para sostener objetos como despertadores; que las mesas no necesitan estar hechas de ningún material en particular o tener un color en particular, etc. La herramienta puede entonces aplicar su conocimiento de las mesas al conocimiento que ha adquirido sobre elecciones estéticas, estilos y perspectivas, todo en el camino para crear una nueva imagen que nunca ha existido antes. No hay "cortar y pegar" involucrados. (Si está interesado en profundizar en cómo funciona todo esto, le recomiendo [seguir el blog de Andrés Guadamuz sobre el tema] (https://www.technollama.co.uk/artists-file-class-action- demand-against-stability-ai-deviantart-and-midjourney).) Con una comprensión adecuada de la tecnología, podemos ver que la descripción repetida en la queja de Stable Diffusion como una "herramienta de collage del siglo XXI", aunque quizás sea pegadiza, simplemente no es exacto ### Stable Diffusion no almacena copias de las imágenes de entrenamiento La queja también caracteriza erróneamente a Stable Diffusion al afirmar que las imágenes utilizadas para entrenar el modelo se "almacenan e incorporan" en la herramienta como "copias comprimidas". El modelo Stable Diffusion actual usa alrededor de 5 gigabytes de datos. Ninguno incluye copias de imágenes. Sería físicamente imposible copiar los 5000 millones de imágenes utilizados para entrenar el conjunto de datos en un archivo de 5 GB de manera que permitiera que la herramienta emitiera representaciones. de esas imágenes, sin importar cuán pequeñas hayas intentado comprimirlas. La denuncia da el ejemplo de un mensaje de texto para la frase "un perro con una gorra de béisbol mientras come helado" y afirma que el sistema "lucha" para generar una imagen basada en este mensaje porque, aunque hay muchas fotos de perros, gorras de béisbol y helados entre las imágenes de entrenamiento, "es poco probable que haya imágenes que combinen las tres". Un sistema de difusión latente no puede ilustrar esta combinación de objetos, afirman los demandantes, “porque nunca puede exceder las limitaciones de sus imágenes de entrenamiento”. Esto podría ser cierto si Stable Diffusion realmente tuviera que ubicar una imagen en particular en la forma en que lo hace un motor de búsqueda, pero debido a que no funciona la herramienta, me tomó unos quince segundos escribir este mensaje en Midjourney y obtener un resultado útil: # # Derechos de reproducción versus derechos derivados Con una mejor comprensión de cómo funciona la tecnología, podemos pasar a las teorías legales de la demanda. ### Entradas Cuando se trata de acciones potencialmente infractoras cometidas por los desarrolladores de herramientas de IA, el candidato más probable es el raspado inicial (es decir, la reproducción) de imágenes para entrenar el modelo. El hecho de que esta conducta constituya una infracción procesable o sea, en cambio, un uso legítimo protegido dependerá en gran medida de la evaluación del tribunal de si las imágenes se copiaron y utilizaron con un propósito transformador (similar a la [herramienta de búsqueda de libros de Google] (https://scholar. google.com/scholar_case?case=2220742578695593916 ) o el software de detección de plagio de Turnitin), se comparó con la naturaleza comercial de estas herramientas y su capacidad para afectar el mercado de licencias para las obras subyacentes. Como señalé en mi artículo anterior sobre el arte de la IA, las herramientas de la IA no copian tanto las imágenes para acceder a su creatividad expresión como para identificar patrones en las imágenes y leyendas. Además, las imágenes originales escaneadas en esas bases de datos, a diferencia de la visualización de fragmentos de libros de Google, nunca se muestran a los usuarios finales. Podría decirse que esto hace que el uso de obras con derechos de autor de Stable Diffusion sea aún más transformador que la Búsqueda de libros de Google. Sorprendentemente, la queja de los demandantes no se enfoca mucho en si hacer copias de etapa intermedia durante el proceso de capacitación viola sus derechos exclusivos de reproducción bajo la Ley de Derechos de Autor. Dado que las imágenes de entrenamiento no se almacenan en el software en sí, el raspado inicial es realmente la única reproducción que se lleva a cabo. ### Salidas La demanda tampoco alega que las imágenes salidas infrinjan las reproducciones de cualquiera de las obras de los demandantes. De hecho, los demandantes admiten que ninguna de las imágenes proporcionadas en respuesta a un mensaje de texto en particular "probablemente coincida con ninguna imagen específica en los datos de entrenamiento". En cambio, la demanda se basa en una afirmación mucho más radical y audaz, a saber, que todas las imágenes que generan estas herramientas de IA son necesariamente un "trabajo derivado" ilegal e infractor basado en los miles de millones de imágenes con derechos de autor utilizadas para entrenar a los modelos. Esta alegación es fácticamente defectuosa y legalmente sospechosa; también se está extralimitando de una manera que en realidad podría socavar el trabajo de muchos artistas que son miembros de la clase propuesta. Pero antes de llegar allí, debemos hacernos una pregunta fundamental: ¿Qué es una obra derivada? ## Hablemos de obras derivadas Sujeto al uso justo y otras defensas, el propietario de los derechos de autor tiene el derecho exclusivo [de preparar obras derivadas basadas en la obra protegida por derechos de autor](https://www.law.cornell.edu/uscode/text/ 17/106). Podría suponer que el concepto de “obra derivada” bajo la ley de derechos de autor sería simple de definir. Estarías equivocado. Claro, hay una definición incluida en la Ley de derechos de autor de 1976, pero los abogados, académicos y jueces de derechos de autor han derramado barriles de tinta tratando de entender lo que realmente significa. ### La definición de la Ley de derechos de autor es amplia, pero... Comencemos con la definición de la Ley de derechos de autor: > Una “obra derivada” es una obra basada en una o más obras preexistentes, como una traducción, un arreglo musical, una dramatización o una ficción. , versión cinematográfica, grabación de sonido, reproducción de arte, compendio, condensación o cualquier otra forma en la que una obra pueda ser refundida, transformada o adaptada. > > [17 U.S.C. § 101](https://www.law.cornell.edu/definitions/uscode.php?width=840&height=800&iframe=true&def_id=17-USC-1602536950-364936160&term_occur=44&term_src =) Tenga en cuenta que una obra derivada se define como una eso está "basado en" uno o más trabajos preexistentes. Este es probablemente el concepto al que se aferra la queja de los demandantes cuando afirma que el resultado producido por las herramientas de arte de IA es "necesariamente" derivado del conjunto de datos de obras preexistentes con derechos de autor. ### Las obras derivadas deben incorporar una parte de la obra subyacente Si bien la definición de "obra derivada" es ciertamente amplia, no significa que cualquier obra nueva que se "deriva" libremente de otra obra califica como obra derivada, y mucho menos una obra infractora. Como señalé en algunos hilos de Twitter y Mastodon la semana pasada (sígueme aquí y aquí), ya sea que una imagen en particular generada por una herramienta de arte de IA sea o no un "derivado". trabajo” es, en última instancia, irrelevante para la cuestión de la infracción. La historia legislativa de la Ley de derechos de autor de 1976 explica que para violar el derecho de obras derivadas de un artista, una nueva obra debe incorporar una parte de la trabajo subyacente. Da el ejemplo de una composición musical inspirada en una novela, que normalmente no constituiría una infracción. En el Noveno Circuito, la jurisdicción en la que se presentó la demanda colectiva contra Stability AI y los demás demandados, el tribunal en Litchfield v. Spielberg sostuvo que una obra no es una obra derivada infractora a menos que sea “sustancialmente similar” a una obra preexistente. Sólo entonces el primero ha “incorporado” al segundo. Curiosamente, aunque los demandantes alegan que cada imagen emitida por Stable Diffusion es "necesariamente un trabajo derivado" de todas las imágenes de entrenamiento, admiten que "ninguna de las imágenes de salida de Stable Diffusion proporcionadas en respuesta a un mensaje de texto en particular es probable que sea un resultado cercano". coincide con cualquier imagen específica en los datos de entrenamiento”. Este reconocimiento parece arrojar una gran llave en el reclamo de trabajo derivado de los demandantes que, como señalé anteriormente, es realmente el quid de su demanda. Stable Diffusion ciertamente puede ser persuadido para que genere un trabajo derivado de elementos que se encuentran en otro trabajo, algunos de los cuales pueden tener derechos de autor por separado. En particular, las imágenes de personajes populares como Mickey Mouse, Homer Simpson y SpongeBob SquarePants que se encuentran en Internet se pueden generar fácilmente en configuraciones únicas. En esencia, la herramienta puede aprender los elementos esenciales de Bob Esponja de la misma manera que aprende los atributos esenciales de una mesa. Esto también explica por qué pueden aparecer fragmentos de firmas de artistas o partes de la marca de agua de Getty Images en las imágenes de salida. Hay formas de atenuar el efecto de los modelos "sobreentrenados" en las imágenes ubicuas, pero es importante recordar que incluso si una imagen de salida generada es original, aún puede ser una infracción si incorpora elementos susceptibles de protección de otro trabajo. Debería estar claro ahora que determinar si las imágenes de salida particulares están infringiendo requiere una comparación imagen por imagen, y una demanda colectiva realmente no es el mejor vehículo para ese tipo de cosas. ### El peligro de extralimitarse Hay otro problema más fundamental con el argumento de los demandantes. Si cada imagen de salida generada por herramientas de IA es necesariamente una obra derivada infractora simplemente porque refleja lo que la herramienta ha aprendido al examinar obras de arte existentes, ¿qué podría decir eso sobre las obras generadas por los propios demandantes? Las obras de innumerables miembros potenciales de la clase podrían reflejar, de la misma manera atenuada, obras de arte preexistentes que los artistas estudiaron a medida que aprendían su habilidad. Si el tribunal la adopta, la amplia afirmación de los demandantes tendría consecuencias nefastas para los mismos artistas que la demanda intenta proteger. Cada vez que los artistas producen obras creativas, se basan en lo que han visto y experimentado a lo largo de sus vidas. En este sentido, todo trabajo creativo humano es derivado. Muchos artistas trabajan específicamente para desarrollar o remezclar estilos, técnicas e incluso expresiones creadas por primera vez por otros artistas. ### Una cuestión de estilo Por esta razón, la sugerencia relacionada con la denuncia de que una herramienta capaz de crear arte en el "estilo" de otro artista es ilegal también es peligrosa. El estilo es ciertamente un elemento que puede y debe ser considerado dentro de un análisis general de similitud sustancial, pero prohibir obras que simplemente están “inspiradas en” —o incluso copiar— técnicas artísticas preexistentes reprimiría artificialmente el desarrollo creativo humano. Los tribunales que han considerado este tema han sostenido que el estilo es un ingrediente de la expresión, pero que [por sí solo, no se puede proteger] (https://scholar.google.com/scholar_case?case=2682672355486619002). Entonces, incluso si un artista fuera el primero en pensar en el estilo del anime, por ejemplo, “solo podría tener un interés de derechos de autor protegido en su expresión específica de esa idea; [no pudo reclamar todo el anime que se produjo o se producirá] (https://scholar.google.com/scholar_case?case=6168286198339281793)”. En otro ejemplo, un tribunal determinó que el cartel de la película de los demandados copió ilegalmente la caricatura de New Yorker de los demandantes. Esto se debe a que las dos obras [no solo usaron el mismo estilo "incompleto y caprichoso", sino que también usaron el mismo tema, el mismo tema e incluso detalles concretos idénticos de una manera sustancialmente similar] (https://scholar.google. com/scholar_case?case=75500237070421047). Eso es impropio. Por otro lado, un artista es perfectamente libre de usar el mismo tema y estilo que otro artista “[siempre y cuando el segundo artista no copie sustancialmente [la expresión específica del primer artista] de su idea](https:// erudito.google.com/scholar_case?case=2682672355486619002).” ## El derecho de reclamo de publicidad Tenga en cuenta que los demandantes también han presentado un reclamo de derecho de publicidad por separado según la ley de California basado en la capacidad de Stable Diffusion para generar resultados en el "estilo" de un artista en particular cuando se invoca el nombre del artista en un aviso. La razón por la que las herramientas pueden reconocer los nombres y estilos de ciertos artistas es la misma razón por la que reconocen muebles: esta es información fáctica que a menudo se incluye en los subtítulos o el texto alternativo asociado con las imágenes de entrenamiento. Es una teoría interesante, pero no creo que finalmente funcione a menos que haya alguna evidencia de que los demandados usaron los nombres de los demandantes de una manera que está directamente relacionada con la promoción de las herramientas o de alguna otra manera abiertamente comercial. Si en realidad es solo un intento de puerta trasera para controlar las obras artísticas utilizadas en los conjuntos de entrenamiento, es probable que el reclamo [se anule por la Ley de derechos de autor] (https://scholar.google.com/scholar_case?case=16156934007444564709). ## Responsabilidad vicaria También es importante recordar que cualquier imagen derivada potencialmente infractora emitida por Stable Diffusion se crea en respuesta a las indicaciones ingresadas por las personas que usan los programas, no por los propios acusados. Si bien los demandantes presentaron un reclamo por [infracción vicaria] (https://www.ce9.uscourts.gov/jury-instructions/node/277) basado en la conducta de los usuarios, no me parece particularmente fuerte. Para ser indirectamente responsable por la infracción de los derechos de autor de otra persona, el demandado debe tener el derecho y la capacidad de supervisar al infractor directo. Stability AI y los otros acusados no pueden controlar las indicaciones que ingresan los usuarios. Las herramientas de cara al público como Midjourney deberían ser elegibles para invocar las disposiciones de "puerto seguro" de la DMCA con respecto al contenido generado por el usuario en los servidores públicos de Discord. (Midjourney ha establecido un sistema de notificación y eliminación para este propósito). Pero las instalaciones de software de Stable Diffusion en las máquinas locales de los usuarios son muchas como el software peer-to-peer en cuestión en MGM v. Grokster (que rechazó un reclamo de responsabilidad indirecta). En ese caso, la Corte Suprema sostuvo que “ninguna de las comunicaciones entre los demandados y los usuarios proporciona un punto de acceso para filtrar o buscar archivos infractores, ya que el material infractor y la información del índice no pasan a través de las computadoras de los demandados”. Además, como expliqué hace un tiempo en un artículo sobre el software de extracción de secuencias de YouTube, solo porque una herramienta en particular se puede usar para un propósito infractor no significa automáticamente que el fabricante enfrente una responsabilidad secundaria por distribuir la herramienta. El fabricante tendría que tomar medidas adicionales que contribuyeran o indujeran la infracción por parte de los usuarios. En particular, en la opinión “Betamax” de 1984, Sony Corp. of America v. Universal City Studios, la Corte Suprema de EE. UU. sostuvo expresamente que mientras la tecnología es capaz de “usos sustanciales no infractores”, el fabricante no podría ser considerado responsable “simplemente porque algunas personas utilizan el equipo para hacer reproducciones no autorizadas de las obras de [los demandantes]”. > Si se impone una responsabilidad indirecta a Sony en este caso, debe basarse en el hecho de que ha vendido equipos con conocimiento constructivo del hecho de que sus clientes pueden usar esos equipos para hacer copias no autorizadas de material protegido por derechos de autor. No hay precedente en la ley de derechos de autor para la imposición de responsabilidad vicaria en tal teoría. > > Sony Corp. de Am. v. Universal City Studios, Inc., 464 U.S. 417, 419 (1984). ## Los límites de la ley La verdadera preocupación que impulsa la demanda de los demandantes se resume en la introducción de la demanda, que afirma que “Los demandantes y la Clase buscan poner fin a esta flagrante y enorme infracción de sus derechos antes de que sus profesiones sean eliminadas por un programa de computadora alimentado completamente por su arduo trabajo.” Esta preocupación es comprensible, pero no es algo que la demanda de los demandantes pueda resolver. Los abogados de los demandantes han declarado que “[Incluso asumiendo daños nominales de $1 por imagen, el valor de esta apropiación indebida sería de aproximadamente $5 mil millones] (https://stablediffusionlitigation.com/)”. Claro, ese es un gran número en conjunto, pero colectivamente les daría a los tres demandantes menos de $ 250 en base a los 242 trabajos que afirman que se usaron como imágenes de entrenamiento. (Tenga en cuenta que McKernan y Ortiz no parecen poseer ningún derecho de autor registrado, lo que se requiere para que sean los demandantes adecuados en primer lugar). Más importante aún, ninguna indemnización por daños y perjuicios volvería a poner al genio generado por IA en la botella. También tengo que creer que una herramienta de IA de "fuente ética", entrenada solo con imágenes obtenidas a través de un modelo de suscripción o licencia, podría programarse para producir resultados que rivalizarían con los modelos en cuestión en la demanda. Tal herramienta podría evitar el bagaje legal o ético de Stable Diffusion, pero no haría nada para detener la proliferación del arte generado por IA. Si bien es probable que la ley no brinde mucho consuelo a los demandantes, la historia puede hacerlo. Considere que en 1859, el crítico de arte francés [Charles Baudelaire] (https://en.wikipedia.org/wiki/Charles_Baudelaire) se quejó de que si se permitiera que un nuevo desarrollo tecnológico "complemente el arte en algunas de sus funciones, [pronto lo habrá suplantado o corrompido por completo] (https://www.csus.edu/indiv/o/obriene/art109/readings/11%20baudelaire%20photography.htm), gracias a la estupidez de la multitud que es su aliado natural.” Baudelaire estaba hablando de fotografía, pero bien podría haberse desahogado sobre el arte generado por IA. La verdad es que muchas innovaciones creativas nuevas, desde la llegada de Photoshop hasta la adopción generalizada de la fotografía digital y la introducción de la animación 3D generada por computadora, han encontrado resistencia. En última instancia, cada una de estas tecnologías se adoptó como una herramienta, no de desplazamiento o corrupción, sino de complemento, lo que permitió a los artistas desbloquear formas y estilos de expresión creativa completamente nuevos. Seguiré de cerca los desarrollos legales en Andersen v. Stability AI Ltd. y publicará actualizaciones aquí en Copyright Lately. Mientras tanto, me encantaría saber qué piensa sobre la nueva demanda. Envíeme un comentario a continuación o @copyrightlaly en las redes sociales.