Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4052

Incidentes Asociados

Incidente 7777 Reportes
South Korea Experiences a Surge of Explicit Deepfake Pornography

Loading...
Le dieron un dólar a AI y millones de mujeres fueron arrastradas al infierno |
baijiahao.baidu.com · 2024

Hace más de un año, Wu Hua estaba de viaje por Corea del Sur y publicó una foto con orientación coreana en las redes sociales durante el viaje. Menos de tres días después de regresar a China, una amiga le envió una captura de pantalla de una cuenta que era casi igual a su avatar y nombre de usuario. La diferencia es que el texto de la cuenta ha sido reemplazado por coreano y aparece un sitio web extraño en el perfil. Lo que sorprendió a Wu Hua fue que hacer clic en la URL de la cuenta de alta imitación conduciría a un canal porno, donde se mostraban videos sucios pagos: la protagonista, todos reemplazados por IA con su cara. Hasta finales de agosto de este año, cuando presté atención al incidente de Deepfake en Corea del Sur, "me sentí arrastrado por una enorme ola de miedo". Wu Hua dijo a "Intelligent Emergence": "Fue tan repugnante e incómodo". Al recordar la primera sensación al abrir estos videos de IA, Wu Hua todavía estaba ahogado por los sollozos. Aunque ella denunció y eliminó la cuenta de alta imitación, no está segura de si su rostro se ha utilizado en otros lugares. El "Incidente de la Sala N 2.0" generado por la tecnología deepfake (refiriéndose específicamente a la tecnología de síntesis de imágenes humanas basada en IA) está provocando que Corea del Sur, que está adyacente al mar, caiga en un enorme remolino. Innumerables mujeres se han convertido en "presas" capturadas por hombres que utilizan IA. Un estudiante de la Universidad de Inha creó una sala de chat con más de 1.200 miembros. Utilizaron la tecnología Deepfake para colocar los rostros de niñas en la escuela en varias imágenes pornográficas y también compartieron públicamente su información de contacto en chats grupales. A partir de la Universidad de Inha, rápidamente se descubrió una gran conspiración, por lo que Deepfake fue denominado el "incidente de la Sala N 2.0". A partir del 20 de agosto, los medios de comunicación y la policía de Corea del Sur han descubierto sucesivamente un gran número de salas de chat similares en escuelas, hospitales y sistemas militares. 220.000, que es el mayor número de miembros de salas de chat Deepfake revelados en Corea del Sur. En Corea del Sur, casi todas las escuelas secundarias y universidades tienen una "sala de humillación" de este tipo. En los chats grupales, los hombres usan varias herramientas de deepfake para reemplazar los rostros de las mujeres en varias imágenes y videos obscenos. Luego, los hombres del grupo comenzarán a humillarlos verbalmente juntos e incluso llegarán a amenazarlos y acosarlos fuera de línea. Las salas de humillación más grandes incluso se subdividen en diferentes salas pequeñas, como las salas de humillación familiar. Los hombres incluso toman fotos en secreto de sus madres, hermanas y hermanas y las suben a chats grupales. △En la sala de chat, un hombre subió una foto de su hermana (la foto estaba oscurecida por un mosaico rojo) y el texto era el historial de chat traducido al chino. En 2019, cuando ocurrió el incidente de la Sala N que conmocionó al mundo, algunos internautas dijeron sarcásticamente: "El número total de taxis en Corea del Sur es solo 260.000. Esto significa que la probabilidad de que te encuentres con un miembro de la Sala N en la calle es de aproximadamente Lo mismo que la posibilidad de conocer a un miembro de la Sala N. "Al igual que un taxi". Esta frase no solo se puede aplicar a las salas de chat Deepfake de hoy, la situación real es aún más impactante. Room N 1.0 se basa básicamente en contenidos de vídeo reales robados, lo que significa que los delincuentes también necesitan filmarse a sí mismos para obtener el material. Sin embargo, a medida que la tecnología deepfake se vuelve cada vez más madura, el costo de cometer delitos en salas deepfake se ha reducido a extremadamente bajo. Las imágenes y videos generados por la IA son tan realistas que hacen que las personas parezcan estar en trance. En mayo de este año, Park, un graduado de la Universidad Nacional de Seúl de 40 años, fue arrestado por producir 1.852 piezas de contenido de explotación sexual utilizando fotografías de 48 víctimas femeninas, a todas las cuales conoció en vida. Una profesora en Seúl descubrió que ella también se había convertido en la protagonista de una "sala de humillación de conocidos". El iniciador era un estudiante de su clase, pero no tenía forma de saber cuál era. *"¿Esa foto permanecerá conmigo para siempre?" *Ella se derrumbó y se lo contó a los medios. Después de que estalló el incidente de Deepfake, los voluntarios hicieron un mapa de los perpetradores de Deepfake basándose en informes de los medios y envíos anónimos para su verificación. Los marcadores rojos son tan densos que casi envuelven el corazón de Corea del Sur. △El "Mapa de la escuela de perpetradores" compilado por voluntarios, los puntos rojos casi sumergieron el mapa en el centro de Corea del Sur. Fuente: https://deepfakemap.kr Según estadísticas de la agencia de monitoreo de seguridad de redes SecurityHero, la industria del sexo Deepfake de Corea del Sur. En 2023, representará el 53% del total mundial. En cambio, el PIB de Corea del Sur en 2023 será menos del 2% del mundial. △ Distribución global de la industria del porno deepfake en 2023 Gráfico: aparición inteligente Conmocionadas por la desesperación y la ira, las mujeres coreanas tuvieron que correr de un lado a otro en medio de la opinión pública reprimida. "¡Mi vida no es tu porno!", "¡Las mujeres no tienen patria!", coreaban furiosas en las redes sociales. Silencio de cerco y represión ----------- Nadie sabe el número exacto de mujeres víctimas. El estudiante universitario Zhiying bebe grandes tazas de café todos los días sólo para mantenerse despierto. "Tengo miedo de perderme alguna de las presentaciones de las víctimas". Zhiying no se atrevió a detenerse. Desde finales de agosto casi no ha dormido. Se está llevando a cabo una campaña de cerco y represión. En Twitter, Jiyoung sigue discutiendo con hombres coreanos. Su cuenta de Twitter ha sido monitoreada por hombres en tiempo real. La URL del contenido misógino que acaba de subir y llamó a todos a denunciar se cambió al minuto siguiente. Esto significa que los misóginos han estado mirando los tweets de Jiyoung. Durante la comunicación con nosotros, ella también intentó usar un cambiador de voz------todas las bloggers que estuvieron activas en Twitter durante este incidente son los objetivos número uno del "unboxing" (búsqueda de carne humana) de los hombres coreanos. no puede revelar ninguna información sobre ella misma. En la sociedad coreana, donde las mujeres tienen un estatus bajo, la etiqueta feminista ha sido durante mucho tiempo una etiqueta peligrosa. Queens Archive, el Twitter feminista más grande de Corea del Sur, fue denunciado al público por hombres coreanos por ser los primeros en revelar el incidente de la sala de chat Deepfake. "A veces no nos duchamos ni dormimos nada y nos quedamos despiertos hasta las tres o cuatro de la mañana", dijo Zhiying a "Smart Emergence". Ella y sus "camaradas" en Twitter tradujeron con entusiasmo toda la información relacionada con Deepfake, las pautas de protección de víctimas y la ciencia feminista al inglés, y la difundieron continuamente en Twitter. El rango de edad tanto de los perpetradores como de las víctimas involucradas en el incidente de Deepfake es menor que el de la Sala N 1.0. De enero a julio de 2024, Corea del Sur lanzó e investigó 297 delitos de explotación sexual deepfakes y arrestó a un total de 178 sospechosos, 131 de los cuales eran adolescentes, lo que representa el 73,6%. Mucha gente lo compara con el "Incidente de la Sala N 2.0", pero en comparación con él, la popularidad actual de la opinión pública no es la misma. A los ojos de muchas mujeres, la actitud del gobierno y la policía coreanos puede describirse como "negativa". El contenido sexualmente humillante producido con IA ni siquiera fue considerado al principio por la policía o el gobierno porque "no era real". "El gobierno no manejó adecuadamente el incidente de la Sala N. Por lo tanto, muchos de los hombres en el incidente de Deepfake son menores y muchas de las víctimas son menores. Los perpetradores no sentirán ninguna consecuencia y no irá a la cárcel. ", dijo Zhiying a "Smart Emergence". En este incidente de Deepfake, la policía surcoreana solo ha arrestado a unas 15 personas hasta el momento. Algunos perpetradores se fueron directamente al extranjero para escapar del castigo inmigrando. "El incidente de Deepfake, junto con casos anteriores de delitos digitales como Room N y Soranet, se estima que el número de víctimas es de más de 1 millón y nadie sabe el número exacto, se lamentó Zhiying, "Entonces, si no lo sabemos". informe al gobierno lo antes posible. El gobierno no hará nada si los presionan". Las mujeres surcoreanas comenzaron a buscar ayuda del mundo exterior y a difundir el contenido del incidente de Deepfake en las redes sociales de China y Japón. △Fuente: Weibo Eunjung, una estudiante universitaria coreana, fue a Xiaohongshu y pidió atención y corrió la voz en un idioma desconocido. Fue bloqueada y eliminada repetidamente, pero nunca se dio por vencida. La llamada de ayuda de la niña coreana en Weibo fue reenviada casi 150.000 veces en sólo dos días. △Fuente: Xiaohongshu Nadie sabe adónde conducirán en última instancia estos esfuerzos. Eunjing le dijo a "Smart Emergence" que su hermana menor ahora es una estudiante de secundaria. La escuela no tiene otras medidas excepto simplemente pedirles a las niñas que se protejan. Ella y su hermana solo pueden publicar todas las fotos con caras en las plataformas sociales. pantalones largos al salir todos los días. Después de que estalló la opinión pública extranjera, el gobierno de Corea del Sur finalmente dio un seguimiento serio a este incidente. Las recientes declaraciones públicas de diferentes partidos políticos de Corea del Sur son inseparables del incidente de Deepfake. "El incidente debe resolverse en el corto plazo". "Sala de humillación deepfake", en todas partes ----------------------- Ser una persona sin base en tecnología de inteligencia artificial y permanecer "dentro de la pared" " Un chino se convierte en perpetrador de Deepfake. ¿Qué tipo de costes iniciales tiene que pagar? En el informe de SecurityHero, la cantidad de videos porno Deepfake en China representa el 3% del total mundial. Se trata de una cifra modesta en comparación con Corea del Sur (53%) y Estados Unidos (20%). Sin embargo, dado que la mayoría de las estadísticas del informe provienen de sitios web extranjeros, la escala real de la industria del porno deepfake en China es mucho mayor. Al buscar "Deepfake" en la plataforma social extranjera X (anteriormente Twitter), pronto apareció un vendedor chino de herramientas Deepfake. Sus publicaciones incluyen explícitamente palabras como "AI desnudándose", "atándose" y "bikini", pero la página de inicio dice: "Solo proporciona herramientas de IA y no es responsable de su uso en plataformas sociales extranjeras como X, Instagram y". Sólo Facebook Es la llave para abrir la caja de Pandora. Muchos profesionales chinos utilizan palabras como "vx", "kou" y "zfb" para referirse implícitamente al lugar final de las transacciones: WeChat, QQ, Xianyu e incluso la interfaz de transacciones de Alipay. Nos comunicamos con un vendedor a través del número QQ que quedó en X. Para evadir la supervisión de la plataforma, su firma personal es "Las palabras prohibidas están estrictamente prohibidas, solo para uso de entretenimiento, y usted asumirá las consecuencias de difundirlas bajo su propio riesgo". Desde el principio hasta el final, se comportó como un vendedor de software en general. En toda la conversación no se mencionó ninguna palabra relacionada con el "sexo". Pero el "sexo" se ha convertido en el propósito tácito de esta transacción. Pronto, la otra parte utilizó la función "foto flash (la foto desaparecerá después de 3 segundos de hacer clic en ella)" de QQ para enviar dos representaciones de Deepdake llenas de mosaicos. △El registro de chat QQ entre el autor y el vendedor de la herramienta Deepfake ha sido informado a la plataforma oficial de Tencent. Haga clic en la imagen más grande y el mosaico desaparecerá inmediatamente: aparecerá una foto Deepfake anormalmente cóncava en la pantalla. Tres segundos después, la foto de la mujer, junto con las pruebas utilizadas para defender sus derechos, desaparecieron del historial del chat. Incluso en China, es muy fácil para las mujeres sufrir ciberhumillación y escapar de sanciones legales. Como nueva arma que quita la ropa a las mujeres, la aparición de la IA ha hecho que las agresiones sexuales en línea sean más baratas y rápidas. En el catálogo de productos enviado por los practicantes, un video de cambio de rostro generado por IA en 10 segundos cuesta 30 yuanes, y una foto de desnudo con IA solo cuesta 10 yuanes. La lista de precios también dice específicamente: Compre 5 y obtenga 1 gratis. Pero al principio, la tecnología detrás de Deepfake llamada "Generative Adversarial Network (GAN)" era casi inofensiva para humanos y animales. GAN, que nació en Google Brain Lab en 2014, tiene todos los elementos que dificultan su popularización: es difícil de instalar software, tiene un alto umbral técnico para su funcionamiento y también requiere costosos conjuntos de datos de entrenamiento y recursos informáticos. Esto permitió que Deepfake permaneciera en el laboratorio por un tiempo y no fuera ampliamente utilizado por el público. Las cosas se salieron de control, aproximadamente en 2019. En 2019, nació DeepNude, una aplicación que pretende "quitarte la ropa con un clic en 30 segundos" ------- Irónicamente, este software fue entrenado utilizando 10,000 fotos de desnudos femeninos **Cuando el usuario ingresa A. foto de un hombre, no puede quitarse la ropa masculina, solo le agregará una vagina femenina. ** Detrás de DeepNude está la tecnología GAN cuyo rendimiento ha mejorado rápidamente en los últimos años y el ecosistema de código abierto que reduce en gran medida la dificultad de uso. Esto permitió a un programador anónimo, Alberto (seudónimo), desarrollar rápidamente DeepNude basado en la arquitectura GAN de código abierto de la Universidad de California, Berkeley. Por un lado, está la tecnología de inteligencia artificial en rápido desarrollo y el ecosistema de código abierto cada vez más próspero, por el otro, está el crecimiento salvaje de Deepfake y la conciencia social y el sistema regulatorio no preparados. DeepNude hace que la creación de fotografías de desnudos no consentidos sea tan fácil como hacer clic en un botón. Debido a la presión de la opinión pública, DeepNude optó por retirarlo voluntariamente de los lineales dos semanas después de su lanzamiento. Alberto (seudónimo) explicó en la entrevista que el desarrollo de este software se debió enteramente a "interés" y "curiosidad": "No soy un voyeur. Soy un amante de la tecnología. DeepNude ha sido retirado de las estanterías, pero". hay decenas de millones de ellos, DeepNude", con su actitud más reservada, su umbral operativo más bajo y su calidad de generación más realista, comenzó a difundirse en Internet. Datos relacionados con Deepfake y la industria del porno Gráfico: Emergencia de inteligencia En el foro Discord, los paquetes de instalación de DeepNude se venden por 20 dólares. El vendedor anónimo declaró en la página de inicio que han mejorado la estabilidad de DeepNude y, al mismo tiempo, también han eliminado las marcas de agua agregadas por el DeepNude genuino a las imágenes generadas, todo lo cual hace que las fotos de desnudos de Deepfake parezcan más realistas. . Menos de tres semanas después de que fuera retirado de los estantes, DeepNude se desarrolló en un modo más fácil de usar y se convirtió en un robot para desvestirse con un solo clic integrado en Telegram. A partir de entonces, la tendencia de los acontecimientos fue muy similar a la actual "Sala N 2.0" de Corea del Sur. Los usuarios del bot establecieron espontáneamente una comunidad en Telegram, con más de 100.000 miembros, convirtiéndose en la primera generación de residentes de la "Sala N". Sensity, la empresa de seguridad de redes que detectó por primera vez este Bot, descubrió que en menos de un año después de su lanzamiento, este Bot había producido fotos desnudas falsas de más de 680.000 mujeres, y aproximadamente 104.852 fotos femeninas se publicaron en la aplicación. Espiral descendente de protección de derechos ----------- Desde 2019 hasta el presente, la operación para rodear y reprimir a DeepNude ha estado en curso. En julio de 2019, el estado estadounidense de Virginia aprobó una enmienda legal relativa a la prohibición de la pornografía, que prohíbe la venta o distribución de contenido pornográfico generado por computadora. A finales del mismo año, plataformas como Twitter, Google y Facebook comenzaron a rectificar los videos Deepfake. Las medidas incluían poner marcas de agua en los videos Deepfake y patrocinar proyectos de investigación relacionados con la detección de Deepfake. Sin embargo, ya sea la "Nth Room 2.0" de Corea del Sur o los productos grises clandestinos escondidos en QQ, Alipay y Xianyu, todos confirman una realidad deprimente: Deepfake nunca ha desaparecido realmente. En 2019, el Citizen Lab de la Universidad de Toronto publicó un estudio que intentaba explorar cómo WeChat censura automáticamente imágenes en grandes volúmenes de chats. Los resultados muestran que WeChat censura los momentos y los chats grupales más que los chats privados individuales. Al mismo tiempo, las noticias políticas y sociales son los temas centrales de la censura de imágenes de WeChat. Esto significa que todavía existen lagunas en la supervisión del contenido pornográfico por parte de la plataforma. Las transacciones pornográficas deepfake realizadas en chats privados son difíciles de revelar a través de la plataforma a menos que alguien lo informe activamente. Pero, ¿puede la gente definitivamente tomar la iniciativa de ponerse de pie? Zhang Jing, subdirector del bufete de abogados Lianggao de Beijing, ha manejado muchos casos de infracción de los derechos de las mujeres en los últimos 20 años. A lo largo de los años, ha ayudado a mujeres a enfrentarse a perpetradores individuales, estructuras injustas e incluso lagunas en el sistema legal. Pero la aparición de la agresión sexual de Deepfake le hizo sentir que la lucha de las mujeres ha alcanzado un nivel más complicado. "En el pasado, cuando la tecnología estaba menos desarrollada, cuando las mujeres sufrían delitos sexuales, al menos podían saber quién era la víctima específica, y el daño sufrido por las mujeres podía cuantificarse mediante la identificación forense", dijo Zhang Jing a "Intelligent Emergence". Pero ahora, tanto los productores como los divulgadores de contenido Deepfake son vagos y sus cifras son difíciles de determinar, lo que ha provocado grandes dificultades para obtener pruebas y sentencias. "¿No sería mejor llamar a la policía?" En Internet, muchos transeúntes han planteado preguntas, e incluso muchas víctimas femeninas pensaron que sería mejor llamar a la policía. Pero antes de llamar a la policía, las mujeres todavía tienen que recorrer un largo camino de recopilación de pruebas. Zhang Jing dijo a "Intelligent Emergence": "Si desea presentar un caso penal, debe tener pruebas básicas para denunciar el caso a las autoridades judiciales. Estas pruebas básicas incluyen: el sitio web específico donde se difunde Deepfake, la cantidad de imágenes infractoras". (el número es demasiado pequeño) No es suficiente para presentar un caso), alcance extendido (el alcance extendido es demasiado pequeño para ser archivado). "Para ser honesto, para las personas que no se conectan con frecuencia, no es fácil completar este paso. Es posible que ni siquiera sepan cómo ingresar al sitio web", concluyó Zhang Jing. Incluso si las mujeres logran llegar al paso de llamar a la policía y presentar un caso, el resultado del tratamiento del delincuente a menudo no es satisfactorio. Al ingresar "AI face-changing" en la Red de documentos de sentencias de China se muestra que solo hay 16 documentos en total, y el primer caso ocurrió en 2022. En los últimos dos años, el número de violaciones de Deepfake que podrían dar lugar a casos penales fue 0. Bajo capas de obstáculos, la protección de los derechos de las mujeres contra los Deepfakes se ha convertido en una espiral descendente: la presión social y los estrictos procedimientos de presentación de casos han resultado en que pocas víctimas femeninas estén dispuestas a denunciar la falta de voces de las mujeres, y el escaso número de casos presentados hace que el avance; de la legislación sea aún más difícil. En diciembre de 2023, en la provincia china de Taiwán, hubo un caso que dio cierta esperanza a las mujeres víctimas de Deepfake. Zhu Yuchen, una celebridad masculina de Internet cuyo nombre en línea es "Xiaoyu", utilizó tecnología deepfake para sintetizar videos pornográficos de más de 100 mujeres conocidas y obtuvo más de NT$13 millones (aproximadamente NT$2,88 millones) en ganancias con las ventas en línea. Finalmente, fue procesado por violar la Ley de Protección de Datos Personales y condenado a cinco años de prisión. Pero, ¿cinco años son suficientes? "En el pasado, los videos pornográficos y las películas en 3D eran una industria de nicho específico, y su difusión difícilmente podía dañar a una persona viva", dijo Zhang Jing, "pero la diferencia esencial entre el Deepfake actual y la industria del porno del pasado es que la difusión de El contenido pornográfico causará daño a personas específicas en la vida. "Esto significa que el castigo para los Deepfakes basados en la difusión de contenido obsceno y pornográfico será definitivamente más leve", concluyó. ** Lo que el perpetrador enfrenta es una sentencia de 5 años sin final a la vista, pero el trauma puede acompañar a las mujeres por un período de tiempo más largo. Cuando tenía 15 años, después de sufrir un acoso falso por parte de los chicos de la mesa del fondo, Xiaoyu empezó a no querer que llegara el verano. Una vez que el uniforme escolar blanco de manga corta esté empapado de sudor, se revelarán la ropa interior y las curvas del cuerpo de las niñas. A una temperatura cercana a los 40 grados Celsius, Xiaoyu aun así optó por usar dos camisas de manga corta para bloquear la vista de los niños. Xiaoyu le dijo a "Smart Emergence" que sentía que era inútil decírselo a los maestros y padres. Recordó que algunos niños de la clase solían hacer chistes verdes sobre las niñas, o mover los hilos de su ropa interior, pero al final la respuesta de la maestra fue que todos eran bromas entre niños. Ahora ha pasado más de un año desde que fui acosado. Después de ingresar a la escuela secundaria, Xiaoyu perdió el contacto con el chico detrás de él y su vida volvió a ser aburrida. Sin embargo, Xiaoyu ha mantenido hasta ahora el hábito de usar dos camisas de manga corta en verano. La humanidad no está preparada para lidiar con Deepfake ----------------------- Durante mucho tiempo, la realidad puede seguir siendo sombría. Después de ver el incidente de Deepfake en Corea del Sur, Li Qian, cofundadora de Luying Technology, estaba tan enojada que inmediatamente llevó al fundador a una lluvia de ideas hasta altas horas de la noche. Ambos estaban muy frustrados a pesar de que tenían la boca seca y la boca. Las lenguas estaban secas. "Quizás tenga que traerles malas noticias: técnicamente no hay forma de acabar directamente con la violencia sexual Deepfake", dijo Li Qian a "Intelligent Emergence". Aunque no se puede erradicar directamente, "pagar a los demás con su propio trato" es un camino convencional. Xiao Zihao, cofundador de Ruilai Intelligence, dijo a "Intelligent Emergence" que la empresa organiza periódicamente "enfrentamientos rojos y azules", dividiendo a los ingenieros en dos grupos: "ejército rojo" y "ejército azul", permitiendo que el "ejército rojo" para simular ataques reales, y el "Ejército Azul" es responsable de la respuesta y eliminación. Los ingenieros de la facción del "Ejército Rojo", para comprender los métodos de producción ilegal, incluso acecharán entre los grupos de producción ilegal para buscar pistas y continuar innovando métodos de ataque. Para aquellos que utilizan la IA para luchar contra los Deepfake, su trabajo diario es luchar contra varios casos nuevos e inesperados. Se necesitan 2 semanas para ajustar una nueva versión y 2 meses para iterar un modelo grande, que es casi estándar. Pero esto es más bien un recordatorio de alerta temprana antes y después de que ocurra un problema. Después de que ocurre una violación real, si se quiere proteger a las mujeres, es necesario confiar más en la red tejida por el poder judicial. En noviembre de 2022, China emitió sus primeras regulaciones dirigidas explícitamente a los deepfakes: las "Regulaciones sobre la gestión de la síntesis profunda de los servicios de información de Internet". Este reglamento regula los productores de contenidos Deepfake, los proveedores de servicios técnicos y las actividades de producción, difusión y publicación. Pero aún queda un largo camino por recorrer desde la formulación de regulaciones hasta su implementación efectiva. En los últimos 20 años, Zhang Jing ha observado que la mayoría de los abogados que manejan casos penales, la policía que recibe informes y las agencias de fiscalía que son en última instancia responsables de los juicios son hombres. "Este es un problema estructural. Incluso el cuerpo legislativo es básicamente masculino". Zhang Jing participó una vez en un seminario sobre la abolición del delito de prostitución de niñas menores de edad (que tiene una pena más leve que el delito de violación). Muchos abogados varones presentes dieron muchas razones para apoyar el mantenimiento del delito de prostitución de niñas menores de edad. Una de ellas es: si en su lugar se utiliza el delito de violación, los perpetradores criminales pueden correr riesgos y poner a la víctima femenina en una situación peligrosa. La mayoría de los casos existentes en los que los perpetradores han sido detenidos y condenados exitosamente son el resultado de mujeres que se rescataron activamente. En el incidente de cambio de rostro de Huang Yao y la IA de la Universidad de Suzhou de 2023, la víctima se coló en la sala de chat donde se difundieron imágenes falsificadas por la IA, recopiló pruebas y utilizó el método de eliminación para agrupar y publicar fotos con diferentes marcas en el círculo de amigos. y los excluyó uno por uno. El perpetrador finalmente fue capturado. Para promover aún más la legislación sobre agresión sexual deepfake y promover la conciencia social, se necesita un precedente real. *"Con un precedente legal, será más probable que esta historia de persecución femenina se incluya en los libros de texto de educación obligatoria, lo que hará que la educación de género sea un paso adelante." *Una activista feminista en Japón dijo a "Smart Emergence". En realidad, la industria actual de la IA sigue siendo un campo bastante dominado por los hombres. Hasta cierto punto, desde la investigación y el desarrollo hasta la implementación del producto, es muy fácil para las mujeres convertirse en un grupo "oprimido" por la IA y formar parte de la industria. Uno de los datos que observó Li Qian es que el 40% de los datos de entrenamiento de modelos de video obtenidos de Internet involucran contenido para adultos, y el 80% trata sobre cuerpos femeninos. *"La pornografía es el modelo de negocio más exitoso para los productos actuales de IA C-end". Un inversor comentó sobre "Intelligent Emergence". Al final, la proliferación de Deepfakes se atribuyó a una realidad comercial: el uso de IA para vender cuerpos femeninos traerá enormes beneficios comerciales a las partes interesadas. Es muy difícil luchar contra la inercia empresarial. Durante el proceso de financiación, algunos inversores, tanto hombres como mujeres, le decían a Li Qian que si YoYo (la plataforma de creación de vídeos con IA de Luying Technology) fuera más tolerante con el contenido pornográfico, la comercialización sería más fluida. Amigable con las mujeres desde el primer día. Para las nuevas empresas de IA con mano de obra y fondos limitados, dar este paso es una decisión particularmente difícil. Li Qian dijo a "Intelligent Emergence" que eliminar el 40% de los datos amarillos de los datos de capacitación significa gastar un costo adicional para completarlos, si se necesita mano de obra y tiempo para establecer palabras prohibidas para las palabras clave ingresadas por el usuario, la velocidad del producto; La iteración será al menos más lenta. "Como empresario, ¿tienes que ver el mundo empresarial sin género?" Pero después de experimentar el incidente de Deepfake, Li Qian ya no lo cree así. "Una vez que se abran las compuertas, la industria tendrá otra pieza de dinero malo. "Expulsa el dinero bueno". Si las mujeres pueden lograr un mayor dominio técnico en la industria, el futuro será diferente. El 4 de septiembre de 2024, Zhang Xinyi, una ingeniera de la Academia de Ciencias de China, hizo que el modelo adversarial Deepfake desarrollado por su equipo fuera de código abierto para el mundo. Una vez que alguien necesita ayuda, el modelo está disponible de forma gratuita para detectar contenido deepfake. En su Weibo, Zhang Xinyi escribió: "Si la antorcha de una persona es demasiado pequeña, pasaremos la antorcha a todos en el mundo cuando las nuevas tecnologías arrasen en el mundo y el poder judicial y la tecnología aún no hayan alcanzado del todo a la gente común". Cada voz y acción de una persona es la razón por la que el proceso social puede avanzar. Corea del Sur es un ejemplo vivo: en un país extremadamente masculinista, cada paso hacia los derechos de las mujeres se da a través de un camino de lucha lleno de sangre y sudor. Desde 2015, las mujeres coreanas han llevado a cabo una serie de movimientos feministas en temas como #MeToo, la eliminación de la violencia sexual en línea y la despenalización de la interrupción del embarazo. A través de debates temáticos, mítines, marchas, etc., estas actividades se han centrado. en materia de concienciación social, legislación, etc. A nivel institucional se han logrado resultados valiosos. Las dos reporteras Jiang Kyung-yoon y Park Hyo-sil que una vez expusieron el escándalo en la Sala N han soportado abusos prolongados en línea, insultos y tortura mental. Una de ellas incluso tuvo múltiples abortos espontáneos. Pero Han Nu nunca se detuvo. Después del incidente de la Sala N, Corea del Sur creó "RESET", un grupo de mujeres centrado en oponerse a los delitos de explotación sexual y promovió el proceso de formulación de leyes relacionadas con los delitos sexuales en línea. En mayo de este año, la persona que envió a prisión a uno de los sospechosos de Deepfake fue uno de los dos reporteros universitarios que previamente habían expuesto la Sala N. No puedo parar, no puedo rendirme, este es el pensamiento de las mujeres coreanas con las que entramos en contacto y que están en la primera línea del incidente de Deepfake. "Esta no es una lucha sólo por nuestra generación, sino por el destino de todas las personas", dijo Jiyoung, ** "Quiero un mundo donde mis amigos, mi familia y todas las mujeres se sientan seguras". * Diferentes razas y nacionalidades tienen comenzó a expresar su apoyo a las mujeres coreanas. El 3 de septiembre, hora local, un grupo de feministas chinas que viven en Londres caminaron desde Trafalgar Square hasta la embajada de Corea y cantaron la canción icónica del movimiento feminista coreano "The World Meets Again" para denunciar las filmaciones sinceras y la falsificación de IA de Corea del Sur y otros actividades ilegales. En varias pancartas y lemas aparecen impresas palabras en rojo: "¡Mi vida no es tu pornografía! △El 3 de septiembre, hora local, un grupo de feministas chinas que viven en Londres realizaron una manifestación contra las fotografías sinceras y los Deepfake. Fuente: Feministas chinas en Londres (Para proteger a los entrevistados, Zhiying, Eunjing y Xiaoyu son todos seudónimos. Gracias a Xingxing, xwf, October, lakyo, Aji y London Sisters por su ayuda en la entrevista).

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd