Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1935

Incidentes Asociados

Incidente 2991 Reporte
Japanese Porn Depixelated by Man using Deepfake

Loading...
Hombre arrestado por no censurar pornografía japonesa con inteligencia artificial en el primer caso de deepfake
vice.com · 2021

La policía japonesa arrestó el lunes a un hombre de 43 años por usar inteligencia artificial para desenfocar efectivamente videos pornográficos pixelados, en el primer caso criminal en el país que involucra el uso abusivo de la poderosa tecnología.

Masayuki Nakamoto, que dirige su propio sitio web en la prefectura sureña de Hyogo, extrajo imágenes de estrellas porno de videos japoneses para adultos y las manipuló con el mismo método utilizado para crear intercambios faciales realistas en [deepfake](https://www.vice. com/en/article/7x57v9/most-deepfakes-are-porn-harassment-not-fake-news).

Pero en lugar de cambiar las caras, Nakamoto usó un software de aprendizaje automático para reconstruir las partes borrosas del video basándose en un gran conjunto de desnudos sin censura y vendió el contenido en línea. Los penes y las vaginas se pixelan en la pornografía japonesa porque una ley contra la obscenidad prohíbe las representaciones explícitas de los genitales.

Según los informes, Nakamoto ganó alrededor de 11 millones de yenes ($ 96,000) vendiendo más de 10,000 videos manipulados, aunque fue arrestado específicamente por vender 10 fotos falsas a alrededor de 2,300 yenes ($ 20) cada una.

Nakamoto se declaró culpable de los cargos de violación de derechos de autor y de mostrar imágenes obscenas y dijo que lo hizo por dinero, según [NHK](https://www3.nhk.or.jp/news/html/20211018/k10013311681000.html?utm_int =noticias-nuevos_contenidos_lista-elementos_086). Fue capturado cuando la policía realizaba una “patrulla cibernética”, informó la emisora japonesa.

Las imágenes fotorrealistas creadas con IA son cada vez más comunes y han planteado muchas cuestiones legales y éticas relacionadas con la [privacidad](https://www.vice.com/en/article/qvgkb7/a-viral-chinese-deepfake-app-is -provocando-un-debate-sobre-la-privacidad), explotación sexual, [copyright](https://www.vice.com/en/article/9kx8j5/ai-podría-anunciar-una-nueva-generación-de-privacidad -catfishing), y expresión artística.

“Este es el primer caso en Japón en el que la policía ha atrapado a un usuario de IA”, dijo a VICE World News Daisuke Sueyoshi, un abogado que ha llevado casos de delitos cibernéticos. “Por el momento, no existe una ley que penalice el uso de la IA para hacer tales imágenes”.

Por ejemplo, Nakamoto no fue acusado de ningún delito por violar la privacidad de los actores en los videos.

A nivel mundial, las víctimas de videos manipulados, a menudo mujeres, y los gobiernos están lidiando con una proliferación de falsificaciones profundas. En Taiwán, un hombre fue arrestado también el lunes por vender pornografía falsa en un grupo de Telegram con unos 6000 miembros. La presidenta de Taiwán, Tsai Ing-wen, calificó el delito de "violencia sexual en línea" y dijo que consideraría una legislación en su contra.

“Estas víctimas podrían ser personas que nos importan a ti ya mí. Podrían ser nuestras familias y amigos. No podemos quedarnos al margen”, dijo Tsai en una [publicación de Facebook](https://www.facebook.com/tsaiingwen/photos/a.10151242056081065/10157736557941065/?type=3&xts%5B0%5D=68. ARAExGcGgRyOJzg73NNeAVUupkHqti0EO6CReD3enyUGwlHNojC7rcLmPqS3xQ3mBNxF1pMyvXCwPIACFba9GQpVGXMxb6W09dDsHgtXffVpRwa8H3tMw16UsdGvRYF2nSgBLoGwpN0KXQt7MjvuP-ExXXFDRd6aMJE5RVfeCN4ysTgGlrMpS4MaziWGDuzHUWheRLPO9XTeNd7Xq1hF_C8-BkOIxKwKbTRLw9bs2GOGKHGUZxH_qaE_pU6ux6pByM3ZTsasA9k1kU0lQA-dLyuHOrU5gNweveMO9WfAFJitFi5OMR4&tn=-R).

Tsai también vinculó el uso de la tecnología a la amenaza que representan los videos falsos y la información falsa para la democracia.

El potencial de usar deepfakes para sembrar desconfianza y manipular la opinión pública se demostró ya en 2018, cuando un [video viral] (https://www.buzzfeednews.com/article/davidmack/obama-fake-news-jordan-peele- psa-video-buzzfeed) mostró al expresidente de EE. UU. Barack Obama llamando a su sucesor Donald Trump un “total y completo imbécil”.

Al año siguiente, California [prohibió los deepfakes políticos](https://www.theguardian.com/us-news/2019/oct/07/california-makes-deepfake-videos-illegal-but-law-may-be-hard -para hacer cumplir) dentro de los 60 días de una elección para combatir la posible desinformación de la campaña.

Hasta ahora, como en el caso de Nakamoto, la tecnología deepfake se ha utilizado de manera abrumadora para simular videos pornográficos.

Según Sensity, una startup que ofrece servicios de detección de videos falsos, el 96 % de los videos falsos mostraban pornografía no consentida en 2019. De hecho, los [usuarios] de Reddit (https://www.technologyreview.com/2021/02/12/1018222/deepfake-revenge-porn-coming-ban/) a los que se les atribuye haber impulsado las falsificaciones profundas a la corriente principal utilizaron esta tecnología para intercambiar rostros de celebridades femeninas en videos porno. Dicho uso ha dado lugar a numerosos casos de víctimas que luchan para eliminar videos falsos comprometedores de Internet. .

En India, una pandilla supuestamente [chantajeó a personas] (https://www.vice.com/en/article/z3x9yj/india-instagram-sextortion-phishing-deepfake-porn-scam) al amenazar con enviar videos falsos de ellos a sus familias.

Sueyoshi dijo que criminalizar el uso de software deepfake o tecnología similar no es la respuesta correcta al problema, ya que las herramientas en sí podrían usarse para fines legítimos.

“Usar IA para levantar mosaicos no es lo que está mal. Así es como el sospechoso Nakamoto usó la IA”, dijo.

Pero dados los casos de infracción de derechos de autor o explotación de la privacidad de una persona, Sueyoshi dijo que era necesario introducir leyes que restrinjan cómo, no si, se usa la tecnología deepfake.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd