Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4051

Incidentes Asociados

Incidente 7777 Reportes
South Korea Experiences a Surge of Explicit Deepfake Pornography

Loading...
Corea del Sur se enfrenta a una crisis de pornografía deepfake
bloomberg.com. · 2024

Corea del Sur se ha visto sacudida por una ola de imágenes deepfake sexualmente explícitas creadas y compartidas en línea, dirigidas indiscriminadamente a mujeres y niñas que usan sus [fotos] escolares (https://www.bbc.com/news/articles/cpdlpj9zn9go), [selfies] en las redes sociales (https://www.koreatimes.co.kr/www/nation/2024/09/113_381693.html) e incluso [fotos] militares (https://english.hani.co.kr/arti/english_edition/e_national/1155588.html). Se informó que un canal de Telegram con más de 220.000 participantes estaba siendo utilizado para crear y compartir estas imágenes pornográficas generadas por inteligencia artificial, lo que sirve como un recordatorio global de las consecuencias más oscuras de la fiebre generalizada por esta tecnología.

Los usuarios podían subir fotos y en cuestión de segundos crear contenido explícito con los rostros de sus amigos, compañeros de clase o parejas románticas. Los informes iniciales de los medios de comunicación locales impulsaron a más mujeres a presentarse como víctimas y a que se expusieran más canales de Telegram, lo que reveló la verdadera magnitud del problema. Muchas de las víctimas involucradas son menores de edad. Los manifestantes que llevaban máscaras blancas sobre los ojos se reunieron en Seúl para pedir justicia a fines del mes pasado.

Mientras la indignación aumentaba, el presidente de Corea del Sur, Yoon Suk Yeol, pidió a su gobierno que tomara medidas enérgicas contra el abuso digital, y las autoridades dijeron que formarían un grupo de trabajo para abordar el problema. Mientras la policía investigaba, surgió otra tendencia inquietante. Los datos preliminares indican que una gran mayoría de los presuntos autores de la reciente ola de casos eran adolescentes.

“Algunos pueden descartarlo como una mera broma, pero es claramente un acto criminal que explota la tecnología bajo el escudo del anonimato”, dijo Yoon durante una reunión de gabinete a fines del mes pasado, reconociendo que muchas de las víctimas y los perpetradores eran menores de edad.

Yoon tiene razón. No se trata de una simple broma, y el impacto de este tipo de violencia sexual digital puede ser devastador para las víctimas. Gran parte de la culpa recae, y con razón, sobre Telegram, especialmente porque el escándalo está llegando a su punto álgido al mismo tiempo que el director ejecutivo de la plataforma, Pavel Durov, ha sido arrestado y acusado en Francia por presunta complicidad en delitos, incluido el intercambio de pornografía infantil, cometidos en su aplicación. Las autoridades coreanas afirmaron que Telegram está cooperando con la investigación y las solicitudes de eliminación de contenido.

Pero las palabras de Yoon sonarán huecas para algunos, dado que llegó al poder en 2022 cortejando a los jóvenes votantes masculinos con propuestas para eliminar el Ministerio de Igualdad de Género, al que acusó de tratar a los hombres como “delincuentes sexuales en potencia”. También afirmó que la discriminación sistémica de género no existe en Corea del Sur, e insinuó que el feminismo era el culpable de la baja tasa de natalidad del país. Mientras tanto, las mujeres ganan un 30% menos que sus homólogos masculinos, lo que marca la mayor brecha salarial de género en el mundo desarrollado. Incluso en los hogares con dos ingresos, las mujeres soportan la peor parte de las tareas domésticas y las responsabilidades del cuidado de los niños.

Y antes de que la reciente oleada de herramientas de inteligencia artificial hiciera mucho más fácil la generación de imágenes explícitas deepfake, los grupos de defensa de derechos habían estado llamando la atención sobre una oleada de delitos sexuales digitales, que generalmente involucran imágenes íntimas no consentidas o cámaras ocultas.

Hay una serie de razones por las que las mujeres surcoreanas, al igual que sus contrapartes en el mundo desarrollado, están optando por no tener hijos, incluida la creciente participación en la fuerza laboral y el desigual costo de criar a los hijos. En lugar de culpar al feminismo, podría ser más útil observar esta montaña de datos profundamente preocupantes. Irónicamente, uno de los principales grupos de Telegram que difundió estas imágenes supuestamente tenía unos 227.000 miembros, lo que es aproximadamente la misma cantidad de bebés nacidos el año pasado.

Las mujeres surcoreanas están sacando a la luz este problema con valentía con protestas y activismo, el primer paso para promulgar cambios para una crisis que está afectando a personas de todo el mundo. En comparación con otras jurisdicciones, la nación también está a la vanguardia en lo que respecta a la regulación de la pornografía deepfake. En realidad, existen leyes que incluyen castigos de hasta cinco años de prisión y multas para las personas condenadas por crear imágenes con la intención de distribuirlas. En Estados Unidos, la legislación federal ha obtenido apoyo bipartidista entre los legisladores, pero aún se está abriendo camino a paso de tortuga en el Congreso.

La regulación es importante, pero los casos en Corea también exponen lo difícil que puede ser la aplicación de un problema tan extendido, así como lo fácil que es crear y compartir este contenido en primer lugar. Ampliar las leyes para que sea ilegal poseer ese material podría ayudar. Pero esto todavía pone mucha responsabilidad sobre las víctimas para rastrear digitalmente quién creó el contenido que cambió sus vidas.

El reciente arresto del CEO de Telegram muestra que hay un mayor impulso global para responsabilizar a las empresas tecnológicas por su papel en los daños que ocurren en sus plataformas. Este es un paso en la dirección correcta; a medida que más reguladores transfieran la responsabilidad a estas poderosas empresas, serían bienvenidas más soluciones lideradas por la industria. Las universidades y los centros de investigación están desarrollando algunas herramientas prometedoras para proteger las imágenes de la manipulación por parte de la IA. Pero no se están dedicando suficientes recursos a garantizar la implementación responsable de la IA desde la industria que la crea.

Se debe dar más responsabilidad a las empresas tecnológicas para que presenten soluciones proactivas. Muchos gigantes tecnológicos han reducido sus equipos de inteligencia artificial éticos y responsables en los últimos años en medio de recortes de costos más amplios. Pero la dignidad de las mujeres y las niñas no es algo que deba sacrificarse en favor de las ganancias.

Corea del Sur es el epicentro actual de esta crisis. Pero se trata de un problema global que puede afectar a cualquiera, desde celebridades como Taylor Swift hasta alumnas de secundaria de Seúl y Nueva Jersey. El sector tecnológico no puede seguir eludiendo su responsabilidad por mucho más tiempo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd