Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3230

Loading...
Las nuevas reglas de IA de Japón favorecen a los imitadores sobre los artistas, dicen los expertos
restofworld.org · 2023

A principios de junio, el gobierno japonés publicó algunas de las primeras directrices legales del mundo sobre imágenes generativas de inteligencia artificial, incluidas herramientas como Midjourney y Stable Diffusion. Pero las directrices también dividieron a los japoneses (y provocaron mucha confusión en el extranjero) sobre lo que realmente significan, para cualquiera, desde grandes nombres como Netflix hasta empresas de todos los días. Artistas y animadores de manga.

Hasta ahora, los generadores de imágenes de IA se han utilizado para crear rápidamente imágenes personalizadas tanto para artistas como para profanos. Las preguntas sobre los derechos de autor se ciernen sobre los productos que crean, ya que se extraen de vastas bases de datos que incluyen material protegido por derechos de autor y pueden usarse para imitar el trabajo de otras personas [con una precisión inquietante] (https://restofworld.org/2022/ai -backlash-anime-artistas/). Es esta pregunta en particular la que la Agencia de Asuntos Culturales de Japón intentó responder en un seminario de una hora con una [presentación de diapositivas de 64 páginas](https: //www.bunka.go.jp/seisaku/chosakuken/pdf/93903601_01.pdf), utilizando la ley de derechos de autor existente y aplicándola al turbio reino de la IA generativa.

Después del seminario, artistas y observadores de la industria hicieron circular rápidamente en las redes sociales un [resumen de una página] (https://www8.cao.go.jp/cstp/ai/ai_team/3kai/shiryo.pdf), que provocó furiosamente reacciones variadas. Los medios de comunicación y los blogs de la industria especializada recogieron la noticia, y el editorial de un periódico importante declaró que las protecciones de derechos de autor [no fueron lo suficientemente lejos] (https://www.yomiuri.co.jp/editorial/20230613-OYT1T50164/). Un tweet que obtuvo más de 41.000 me gusta llevó a la conclusión contraria: que era un paso hacia la regulación, que brindaba protección a los artistas contra " Estafadores ansiosos por utilizar Japón como refugio para el robo y la pereza”. En Hacker News, un hilo de 402 comentarios debatió ferozmente la validez de cómo se relaciona la ley con los desarrolladores de IA.

El primer ministro japonés, Fumio Kishida, opinó días después, de manera un tanto equívoca: Japón continuaría formulando una política de IA este año, con el objetivo de “ "IA responsable" y "confiable".

Expertos legales y observadores de la industria dijeron al Resto del Mundo que las directrices actuales favorecen en gran medida a los desarrolladores, duplicando la protección para quienes utilizan obras protegidas por derechos de autor de Internet para entrenar sus modelos. Al mismo tiempo, las reglas incipientes ofrecen algunas formas limitadas para que los artistas agraviados persigan a aquellos que consideran imitadores.

Los problemas relacionados con las imágenes generadas por IA ya han surgido en Japón y han resonado a nivel mundial. En enero, Netflix lanzó un cortometraje de anime que utilizaba ilustraciones de fondo creadas con la ayuda de un generador de imágenes de IA, desarrollado por la startup japonesa. Rinna. El lanzamiento causó un alboroto global, y los críticos dijeron que la IA estaba quitando el trabajo a animadores que ya estaban mal pagados y con exceso de trabajo. La industria del anime vale unos 25 mil millones de dólares y depende de la mano de obra calificada de varios pequeños estudios y hordas de artistas contratados.

Según las nuevas directrices de Japón, "el tipo de generación de imágenes que Netflix utilizó para crear el arte de fondo podría encontrar problemas", dijo al Resto del Mundo Bryan Hikari Hartzheim, profesor asociado de estudios de nuevos medios en la Universidad de Waseda. Si se tiene cuidado, los artistas pueden demandar o exigir una compensación si su trabajo se utiliza para crear partes de productos comerciales”.

Las nuevas directrices de Japón también esbozan vías para proteger el trabajo de los artistas, pero las legalidades pueden volverse densas rápidamente. Un artista agraviado tendrá que demostrar que una obra de arte generada por IA vendida comercialmente tiene “similitud” con su propio trabajo.

“Si una empresa no tiene cuidado, los artistas pueden demandar o exigir una compensación si su trabajo se utiliza para crear partes de productos comerciales”.

Pueden mostrar la “dependencia de una imagen existente” del trabajo, según Taichi Kakinuma, socio centrado en IA del bufete de abogados Storia. La forma más rápida de demostrarlo es con evidencia de que el trabajo se utilizó como datos de entrenamiento. Pero dado que los conjuntos de datos de entrenamiento no se divulgan públicamente, es posible que no tengan conocimiento de su uso, y mucho menos puedan obtener evidencia.

"Probablemente será difícil para los artistas demostrar que su arte fue utilizado a menos que el caso sea muy claro, pero las directrices podrían tener un efecto paralizador", dijo Hartzheim, señalando que las preocupaciones en torno a las demandas podrían llevar a algunas empresas de producción a evitar las herramientas de inteligencia artificial, y por extensión, el lío legal, por ahora.

Según los documentos de la Agencia Cultural, los desarrolladores de IA en Japón se benefician de una revisión de 2018 de la ley nacional de derechos de autor que permite explícitamente a los ingenieros de aprendizaje automático entrenar modelos sobre obras protegidas por derechos de autor. La ley considera que el scraping de obras protegidas por derechos de autor es simplemente un “análisis de información” o un “aprendizaje”, y está lejos de ser una infracción. Muchos en la industria lo ven como una iniciativa regulatoria temprana para poner a Japón a la vanguardia del desarrollo de la IA.

"Las acciones de estos desarrolladores de IA han sido y seguirán siendo legales", afirmó Kakinuma.

Esta revisión es clave para cualquier empresa de IA generativa con sede en Japón. Stability AI, la compañía detrás del generador de imágenes Stable Diffusion, se ha topado con demandas en los EE. UU. por parte de empresas como [Getty Images](https://www.theverge.com/2023/2/6/23587393/ai-art -copyright-lawsuit-getty-images-stable-diffusion) después de que supuestamente utilizó hasta 12 millones de imágenes sin permiso ni compensación. En Japón, donde Stability AI ha abierto una oficina en Tokio en rápida expansión (https://stability.ai/careers), sus operaciones estarían protegidas de tales presiones legales. Lo mismo se aplica a los desarrolladores nacionales de IA generativa como Rinna.

"Stability AI agradece la aclaración del gobierno de Japón de que la capacitación es un uso aceptable y beneficioso del contenido existente", dijo Motez Bishara, portavoz de Stability AI, en un comunicado al Resto del Mundo. Bishara agregó que la compañía está invirtiendo en métodos para que los creadores tengan más control sobre su trabajo, incluida una función de exclusión voluntaria que se eliminará de futuros conjuntos de datos de capacitación.

Las directrices de la IA son sólo eso: directrices. En esta etapa, no son regulaciones detalladas que vayan a ser aprobadas en el parlamento japonés, la Dieta. Pero son la postura oficial del gobierno japonés sobre la interpretación de cómo se pueden utilizar herramientas como Midjourney y Stability AI sin infringir la ley de derechos de autor, e indican la dirección que esa política puede tomar en el futuro.

Sin embargo, incluso dentro del parlamento hay voces disidentes. "Creo que es posible que se necesiten regulaciones y leyes más profundas para abordar la cuestión de la infracción de derechos de autor", dijo al Resto del Mundo Taisuke Ono, legislador del conservador Partido de Restauración de Japón.

En los últimos meses, Ono ha realizado una gira de escucha para escuchar las preocupaciones de los artistas de la industria preocupados por el desplazamiento. Sugirió que la ley actual se enmarca en torno a los desarrolladores de inteligencia artificial y está divorciada de los tribunales donde realmente se escuchará el caso de los artistas. "Aunque se puede demandar por infracción de derechos de autor, todavía existe el problema muy difícil de: ¿quién puede realmente probarlo en un tribunal de justicia?"

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd