Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4035

Incidentes Asociados

Incidente 7777 Reportes
South Korea Experiences a Surge of Explicit Deepfake Pornography

Loading...
Dentro de la crisis de pornografía deepfake que afecta a las escuelas coreanas
bbc.com · 2024

El sábado pasado, un mensaje de Telegram apareció en el teléfono de Heejin de un remitente anónimo: "Tus fotos e información personal se han filtrado. Hablemos".

Cuando la estudiante universitaria entró en la sala de chat para leer el mensaje, recibió una foto de ella misma tomada hace unos años cuando todavía estaba en la escuela. Fue seguida por una segunda imagen que usaba la misma foto, solo que esta era sexualmente explícita y falsa.

Aterrorizada, Heejin, que no es su nombre real, no respondió, pero las imágenes siguieron llegando. En todas ellas, su rostro había sido unido a un cuerpo involucrado en un acto sexual, utilizando una sofisticada tecnología deepfake.

Los deepfakes, la mayoría de los cuales combinan el rostro de una persona real con un cuerpo falso y sexualmente explícito, se generan cada vez más utilizando inteligencia artificial.

"Estaba petrificada, me sentí tan sola", dijo Heejin a la BBC.

Pero ella no estaba sola.

Dos días antes, la periodista surcoreana Ko Narin había publicado lo que se convertiría en la primicia más grande de su carrera. Recientemente se supo que la policía estaba investigando redes de pornografía deepfake en dos de las principales universidades del condado, y la Sra. Ko estaba convencida de que debía haber más.

Comenzó a buscar en las redes sociales y descubrió docenas de grupos de chat en la aplicación de mensajería Telegram donde los usuarios compartían fotos de mujeres que conocían y usaban software de inteligencia artificial para convertirlas en imágenes pornográficas falsas en cuestión de segundos.

"Cada minuto la gente subía fotos de chicas que conocían y pedía que las convirtieran en deepfakes", nos dijo la Sra. Ko.

La Sra. Ko descubrió que estos grupos no solo se dirigían a los estudiantes universitarios. Había salas dedicadas a escuelas secundarias específicas e incluso escuelas intermedias. Si se creaba mucho contenido usando imágenes de un estudiante en particular, incluso se le podía dar su propia sala. Etiquetadas ampliamente como "salas de humillación" o "salas de amigos de amigos", a menudo vienen con condiciones de entrada estrictas.

El informe de la Sra. Ko en el periódico Hankyoreh ha conmocionado a Corea del Sur. El lunes, la policía anunció que estaba considerando abrir una investigación sobre Telegram, siguiendo el ejemplo de las autoridades de Francia, que recientemente acusaron al fundador ruso de Telegram por delitos relacionados con la aplicación. El gobierno ha prometido imponer castigos más estrictos para los involucrados, y el presidente ha pedido que los hombres jóvenes reciban una mejor educación.

Telegram dijo que "combate activamente el contenido dañino en su plataforma, incluida la pornografía ilegal", en una declaración proporcionada a la BBC.

'Un proceso sistemático y organizado'

La BBC ha visto las descripciones de varias de estas salas de chat. Una pide a los miembros que publiquen más de cuatro fotos de alguien junto con su nombre, edad y la zona en la que viven.

"Me sorprendió lo sistemático y organizado que era el proceso", dijo la Sra. Ko. "Lo más horrible que descubrí fue un grupo para alumnos menores de edad en una escuela que tenía más de 2.000 miembros".

En los días posteriores a la publicación del artículo de la Sra. Ko, las activistas de los derechos de las mujeres también comenzaron a rastrear Telegram y a seguir pistas.

Al final de esa semana, más de 500 escuelas y universidades habían sido identificadas como objetivos. El número real de afectados aún está por determinar, pero se cree que muchos son menores de 16 años, que es la edad de consentimiento en Corea del Sur. Una gran proporción de los presuntos perpetradores son adolescentes.

Heejin dijo que enterarse de la escala de la crisis había empeorado su ansiedad, ya que ahora le preocupaba cuántas personas podrían haber visto sus deepfakes. Al principio se culpó a sí misma. "No podía dejar de pensar: ¿esto sucedió porque subí mis fotos a las redes sociales? ¿Debería haber sido más cuidadosa?".

Desde entonces, decenas de mujeres y adolescentes en todo el país han eliminado sus fotos de las redes sociales o han desactivado sus cuentas por completo, temerosos de que puedan ser explotadas a continuación.

"Estamos frustrados y enojados por tener que censurar nuestro comportamiento y nuestro uso de las redes sociales cuando no hemos hecho nada malo", dijo una estudiante universitaria, Ah-eun, cuyos compañeros han sido objeto de ataques.

Ah-eun dijo que la policía le dijo a una víctima de su universidad que no se molestara en investigar su caso porque sería demasiado difícil atrapar al perpetrador y que "en realidad no era un delito" porque "las fotos eran falsas".

Los surcoreanos han estado conmocionados y enojados desde que salió a la luz el escándalo de las deepfakes

En el centro de este escándalo está la aplicación de mensajería Telegram. La aplicación es conocida por tener una postura de moderación "ligera" y ha sido acusada de no hacer lo suficiente para controlar el contenido y, en particular, los grupos durante años.

Esto la ha convertido en un espacio privilegiado para que florezca el comportamiento delictivo.

La semana pasada, los políticos y la policía respondieron enérgicamente, prometiendo investigar estos delitos y llevar a los perpetradores ante la justicia.

El lunes, la Agencia Nacional de Policía de Seúl anunció que buscaría investigar a Telegram por su papel en permitir la distribución de imágenes pornográficas falsas de niños.

El fundador de la aplicación, Pavel Durov, fue acusado en Francia la semana pasada de complicidad en varios delitos relacionados con la aplicación, entre ellos el de permitir el intercambio de pornografía infantil.

Pero los activistas por los derechos de las mujeres acusan a las autoridades de Corea del Sur de permitir que el abuso sexual en Telegram se prolongue sin control durante demasiado tiempo, porque Corea ya se ha enfrentado a esta crisis antes. En 2019, se supo que una red de prostitución estaba utilizando Telegram para obligar a mujeres y niños a crear y compartir imágenes sexualmente explícitas de sí mismos.

En ese momento, la policía pidió ayuda a Telegram con su investigación, pero la aplicación ignoró las siete solicitudes. Aunque el cabecilla fue finalmente condenado a más de 40 años de cárcel, no se tomó ninguna medida contra la plataforma debido a los temores en torno a la censura.

"Condenaron a los principales actores, pero por lo demás descuidaron la situación, y creo que esto ha exacerbado la situación", dijo la Sra. Ko.

Los grupos de chat como estos ofrecen crear imágenes deepfake. En la parte inferior se señala que "si solicitas que alguien sea humillado (deepfake), lo haremos".

Park Jihyun, quien, cuando era una joven estudiante de periodismo, descubrió la red de sexo de Nth Room en 2019, se ha convertido desde entonces en una defensora política de las víctimas de delitos sexuales digitales. Dijo que desde que estalló el escándalo de deepfake, los alumnos y los padres la habían estado llamando varias veces al día llorando.

"Han visto su escuela en la lista compartida en las redes sociales y están aterrorizados".

La Sra. Park ha encabezado los llamamientos para que el gobierno regule o incluso prohíba la aplicación en Corea del Sur. "Si estas empresas tecnológicas no cooperan con las fuerzas del orden, entonces el estado debe regularlas para proteger a sus ciudadanos", dijo.

Antes de que estallara esta última crisis, el Centro de Defensa de las Víctimas de Abuso Sexual en Internet (ACOSAV) de Corea del Sur ya estaba notando un marcado aumento en el número de víctimas menores de edad de pornografía deepfake.

En 2023 asesoraron a 86 víctimas adolescentes. Esa cifra aumentó a 238 en solo los primeros ocho meses de este año. Solo en la última semana, otras 64 víctimas adolescentes se han presentado.

Una de las líderes del centro, Park Seonghye, dijo que durante la semana pasada su personal había recibido un aluvión de llamadas y estaba trabajando las 24 horas del día. "Ha sido una emergencia a gran escala para nosotros, como una situación de guerra", dijo.

"Con la última tecnología deepfake, ahora hay mucho más material que antes, y nos preocupa que solo aumente".

Además de asesorar a las víctimas, el centro rastrea el contenido dañino y trabaja con las plataformas en línea para que lo eliminen. La Sra. Park dijo que había habido algunos casos en los que Telegram había eliminado contenido a petición suya. "Así que no es imposible", señaló.

En un comunicado, Telegram le dijo a la BBC que sus moderadores "monitorean de manera proactiva las partes públicas de la aplicación, usan herramientas de IA y aceptan informes de usuarios para eliminar millones de piezas de contenido cada día que violan los términos de servicio de Telegram".

Si bien las organizaciones de derechos de las mujeres aceptan que la nueva tecnología de IA está facilitando la explotación de las víctimas, argumentan que esta es solo la última forma de misoginia que se desarrolla en línea en Corea del Sur.

Primero, las mujeres fueron sometidas a oleadas de abuso verbal en línea. Luego vino la epidemia de cámaras espía, donde fueron filmadas en secreto usando baños públicos y vestuarios.

"La causa principal de esto es el sexismo estructural y la solución es la igualdad de género", se lee en una declaración firmada por 84 grupos de mujeres.

Esta es una crítica directa al presidente del país, Yoon Suk Yeol, quien ha negado la existencia del sexismo estructural, ha recortado la financiación a los grupos de apoyo a las víctimas y está aboliendo el Ministerio de Igualdad de Género del gobierno.

Lee Myung-hwa, que trata a jóvenes delincuentes sexuales, coincidió en que, aunque el brote de abusos mediante deepfakes puede parecer repentino, llevaba mucho tiempo acechando bajo la superficie. "Para los adolescentes, los deepfakes se han convertido en parte de su cultura, se los ve como un juego o una broma", dijo la consejera, que dirige el Centro Cultural Juvenil Aha de Seúl.

Lee dijo que era fundamental educar a los jóvenes, citando una investigación que demuestra que cuando se les dice a los delincuentes exactamente lo que han hecho mal, se vuelven más conscientes de lo que se considera abuso sexual, lo que les impide reincidir.

Mientras tanto, el gobierno ha dicho que aumentará las sentencias penales para quienes creen y compartan imágenes deepfake, y también castigará a quienes vean pornografía.

Esto se produce tras las críticas de que no se estaba castigando a suficientes perpetradores. Uno de los problemas es que la mayoría de los delincuentes son adolescentes, que suelen ser juzgados en tribunales de menores, donde reciben sentencias más indulgentes.

Desde que se descubrieron las salas de chat, muchas han sido cerradas, pero es casi seguro que otras nuevas ocuparán su lugar. Ya se ha creado una sala de humillación para atacar a los periodistas que cubren esta historia. La Sra. Ko, quien dio la noticia, dijo que esto le había quitado el sueño por las noches. "Sigo mirando la sala para ver si se ha subido mi foto", dijo.

Esta ansiedad se ha extendido a casi todas las adolescentes y mujeres jóvenes de Corea del Sur. Ah-eun, la estudiante universitaria, dijo que esto la había hecho sospechar de sus conocidos masculinos.

"Ahora no puedo estar segura de que la gente no cometa estos crímenes a mis espaldas, sin que yo lo sepa", dijo. "Me he vuelto hipervigilante en todas mis interacciones con la gente, lo que no puede ser bueno".

Información adicional de Hosu Lee y Suhnwook Lee

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd