Incidentes Asociados

Los robots vendrían por los trabajos de los humanos. Eso estaba garantizado. En general, se suponía que se harían cargo del trabajo manual, levantando tarimas pesadas en un almacén y clasificando el reciclaje.
Ahora, los avances significativos en [inteligencia artificial] generativa (https://www.nytimes.com/topic/subject/artificial-intelligence) significan que los robots también están llegando para los artistas.
Las imágenes generadas por IA, creadas con indicaciones de texto simples, están ganando concursos de arte, [adornando] (https://gizmodo.com/tor-book-ai-art-cover-christopher-paolini-fractalverse-1849904058) [portadas de libros](https://twitter.com/torbooks/status/1603480118168633344?ref_src=twsrc% 5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1603480118168633344%7Ctwgr%5E49d1a62841c2f96d120cece770b9962bb26f32b2%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fgizmodo.com% 2Fembed%2Finset%2Fiframe%3Fid%3Dtwitter-1603480118168633344autosize%3D1), y promoviendo “El Cascanueces, ” dejando a los artistas humanos preocupados por su futuro.
La amenaza puede sentirse muy personal. Se entrenó un generador de imágenes llamado Stable Diffusion para reconocer patrones, estilos y relaciones mediante el análisis de miles de millones de imágenes recopiladas del Internet público, junto con el texto que describe su contenido.
Entre las imágenes en las que se entrenó se encontraban obras de Greg Rutkowski, un artista polaco que se especializa en escenas fantásticas con dragones y seres mágicos.
Ver el trabajo del Sr. Rutkowski junto con su nombre permitió que la herramienta aprendiera su estilo de manera tan efectiva que cuando Stable Diffusion se lanzó al público el año pasado, su nombre [se convirtió en abreviatura] (https://www.technologyreview.com/2022/09/ 16/1059598/this-artist-is-dominating-ai-generated-art-and-he-not-content-about-it/) para los usuarios que querían generar imágenes fantásticas y de ensueño.
Un artista notó que la caprichosa I.A. selfies que salió de la aplicación viral Lensa tenía [firmas fantasmales](https://www.artnews .com/art-news/news/signatures-lensa-ai-portraits-1234649633/) sobre ellos, imitando lo que la A.I. había aprendido de los datos en los que se entrenó: artistas que hacen retratos firman su trabajo. “Estas bases de datos se construyeron sin ningún consentimiento, ningún permiso de los artistas”, dijo Rutkowski.
Desde que salieron los generadores, Rutkowski dijo que ha recibido muchas menos solicitudes de autores primerizos que necesitan portadas para sus novelas de fantasía. Mientras tanto, Stability AI, la empresa detrás de Stable Diffusion, recaudó recientemente $101 millones de inversores y ahora está valorada en más de $ 1 mil millones.
“Los artistas tienen miedo de publicar arte nuevo”, dijo el profesor de informática Ben Zhao. Poner arte en línea es la forma en que muchos artistas anuncian sus servicios, pero ahora tienen "miedo de alimentar a este monstruo que se parece cada vez más a ellos", dijo el profesor Zhao. “Cierra su modelo de negocio”.
Eso llevó al profesor Zhao y a un equipo de investigadores informáticos de la Universidad de Chicago a diseñar una herramienta llamada Glaze que tiene como objetivo frustrar la inteligencia artificial. modelos de aprender el estilo de un artista en particular. Para diseñar la herramienta, que planean hacer disponible para descargar, los investigadores encuestaron a más de 1100 artistas y trabajaron en estrecha colaboración con Karla Ortiz, ilustradora y artista con sede en San Francisco.
Digamos, por ejemplo, que la Sra. Ortiz quiere publicar un nuevo trabajo en línea, pero no quiere que se envíe a A.I. para robarlo Puede cargar una versión digital de su trabajo en Glaze y elegir un tipo de arte diferente al suyo, por ejemplo, abstracto.
Luego, la herramienta realiza cambios en el arte de la Sra. Ortiz en el nivel de píxel que Stable Diffusion asociaría, por ejemplo, con las gotas de pintura salpicada de Jackson Pollock.
Para el ojo humano, la imagen de Glazed todavía parece su trabajo, pero el modelo de aprendizaje por computadora captaría algo muy diferente. Es similar a una herramienta que el equipo de la Universidad de Chicago creó anteriormente para [proteger fotos de los sistemas de reconocimiento facial](https://www.nytimes.com/2020/08/03/technology/fawkes-tool-protects-photos-from- reconocimiento facial.html).
Cuando la Sra. Ortiz publicó su trabajo Glazed en línea, un generador de imágenes entrenado en esas imágenes no podría imitar su trabajo. En cambio, un aviso con su nombre conduciría a imágenes en un estilo híbrido de sus obras y las de Pollock.
“Retiraremos nuestro consentimiento”, dijo Ortiz. Las herramientas de generación de IA, muchas de las cuales cobran a los usuarios una tarifa por generar imágenes, “tienen datos que no les pertenecen”, dijo. “Esos datos son mi obra de arte, esa es mi vida. Se siente como mi identidad”.
El equipo de la Universidad de Chicago admitió que su herramienta no garantiza la protección y podría generar contramedidas por parte de cualquier persona comprometida con emular a un artista en particular. “Somos pragmáticos”, dijo el profesor Zhao. “Reconocemos la probable demora antes de que las leyes, los reglamentos y las políticas se pongan al día. Esto es para llenar ese vacío”.
Muchos expertos legales comparan el debate sobre el uso ilimitado del trabajo de los artistas para la I.A. generativa. a las preocupaciones de piratería en los primeros días de Internet con servicios como Napster que permitían a las personas consumir música sin pagar por ella. La I.A. generativa las empresas ya se enfrentan a un aluvión similar de desafíos judiciales.
El mes pasado, la Sra. Ortiz y otros dos artistas presentaron una demanda colectiva en California contra empresas con arte- generar servicios, incluida Stability AI, afirmar violaciones de derechos de autor y derecho de publicidad.
“Las acusaciones en esta demanda representan un malentendido de cómo generative A.I. las obras tecnológicas y la ley que rodea los derechos de autor”, dijo la compañía en un comunicado. Stability AI también fue demandada por Getty Images por copiar millones de fotos sin licencia. “Estamos revisando los documentos y responderemos en consecuencia”, dijo una portavoz de la compañía.
Jeanne Fromer, profesora de derecho de propiedad intelectual en la Universidad de Nueva York, dijo que las empresas pueden tener un fuerte argumento de uso justo. “¿Cómo aprenden los artistas humanos a crear arte?” dijo el profesor Fromer. “A menudo copian cosas y consumen muchas obras de arte existentes y aprenden patrones y piezas del estilo y luego crean nuevas obras de arte. Y así, en un cierto nivel de abstracción, se podría decir que las máquinas están aprendiendo a hacer arte de la misma manera”.
Al mismo tiempo, dijo el profesor Fromer, el objetivo de la ley de derechos de autor es proteger y fomentar la creatividad humana. “Si nos preocupamos por proteger una profesión_”, dijo, “o creemos que solo la creación del arte es importante para lo que somos como sociedad, es posible que queramos proteger a los artistas”.
Una organización sin fines de lucro llamada Concept Art Association recaudó recientemente más de $200,000 a través de GoFundMe para contratar una empresa de cabildeo para tratar de persuadir al Congreso de proteger propiedad intelectual de los artistas. “Nos enfrentamos a los gigantes tecnológicos con presupuestos ilimitados, pero confiamos en que el Congreso reconocerá que proteger la PI es el lado correcto del argumento”, dijeron las fundadoras de la asociación, Nicole Hendrix y Rachel Meinerding.
Raymond Ku, profesor de derecho de autor en la Universidad Case Western Reserve, predijo que los generadores de arte, en lugar de simplemente tomar el arte extraído de Internet, eventualmente desarrollarán algún tipo de "sistema contractual privado que garantice cierto grado de compensación para el creador".
En otras palabras, a los artistas se les puede pagar una cantidad nominal cuando su arte se usa para entrenar A.I. e inspirar nuevas imágenes, de forma similar a cómo a los músicos se les paga por parte de las empresas de transmisión de música.
Andy Baio, escritor y tecnólogo que [examinó los datos de entrenamiento](https://waxy.org/2022/08/exploring-12-million-of-the-images-used-to-train-stable-diffusions-image -generator/) utilizado por Stable Diffusion, dijo que estos servicios pueden imitar el estilo de un artista porque ven el nombre del artista junto con su trabajo una y otra vez. “Podría ir y eliminar nombres de un conjunto de datos”, dijo Baio, para evitar que la I.A. de aprender explícitamente el estilo de un artista.
Un servicio ya parece haber hecho algo en este sentido. Cuando Stability AI lanzó una [nueva versión] (https://huggingface.co/spaces/stabilityai/stable-diffusion) de Stable Diffusion en noviembre, tuvo un cambio notable: el aviso "Greg Rutkowski" ya no funcionó para obtener imágenes. en su estilo, un desarrollo señalado del director ejecutivo de la empresa, Emad Mostaque.
Los fanáticos de Stable Diffusion estaban decepcionados. “¿Qué le hiciste a Greg?”, escribió uno en un foro oficial de Discord frecuentado por el Sr. Mostaque. Aseguró a los usuarios del foro que podían personalizar el modelo. “Entrenar en greg no será demasiado difícil”, respondió otra persona.
El Sr. Rutkowski dijo que planeaba comenzar su trabajo con Glazing.
Se realizó una corrección el 13 de febrero de 2023: Una versión anterior de este artículo tergiversaba el nombre de la universidad en la que Raymond Ku es profesor de derecho de autor. Es la Universidad Case Western Reserve, no la Universidad Case Western.