Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4521

Incidentes Asociados

Incidente 90317 Reportes
Northern Ireland MLA Cara Hunter Allegedly Targeted by Deepfake Pornography Ahead of May 2022 Assembly Election

Loading...
La pornografía deepfake es violencia política
politico.eu · 2024

Este es un extracto de un boletín de Politico. Para ver el informe completo, visite el sitio web.

DEEPFAKES: CUANDO LO PERSONAL ES POLÍTICO

--- CARA HUNTER, UNA POLÍTICA DE IRLANDA DEL NORTE, ESTABA A SOLO SEMANAS de las elecciones legislativas de 2022 del país cuando recibió un mensaje de WhatsApp de alguien que no conocía. El hombre le preguntó rápidamente si ella era la mujer que aparecía en un video explícito, un clip de 40 segundos que compartió con la joven de 24 años en ese entonces. Al abrir el video, Hunter se encontró con un video deepfake generado por IA de ella misma realizando actos sexuales gráficos. En cuestión de días, el clip falso se había vuelto viral y la norirlandesa fue bombardeada con mensajes directos de hombres de todo el mundo con mensajes cada vez más sexuales y violentos.

"Fue una campaña para socavarme políticamente", me dijo Hunter, que ganó su escaño en la Asamblea de Irlanda del Norte en 2022 por solo unos pocos votos. "Habían pensado que, como vieron una foto explícita de alguien que se parecía a mí, estaba bien enviarme mensajes desagradables. Ha dejado una percepción empañada de mí que no puedo controlar. Tendré que pagar las repercusiones de esto por el resto de mi vida".

Antes de entrar en materia, seamos muy claros: la pornografía deepfake, lamentablemente, no es nueva. Ha existido durante casi una década y casi se dirige exclusivamente a las mujeres. El tema volvió a cobrar protagonismo después de que Taylor Swift se convirtiera en la última víctima, cuando se crearon imágenes gráficas de ella generadas por IA, principalmente a través de un foro de mensajes de 4Chan, y luego se compartieron ampliamente en X, antes conocido como Twitter. Tampoco quiero explicarle a la gente lo que todas las mujeres que leen esto ya saben. Todo esto tiene que ver con el poder. El poder de degradar a las mujeres; el poder de controlar cómo pueden participar las mujeres en la vida pública; el poder de silenciar las voces que los hombres (y son casi exclusivamente hombres) creen que no son dignas. No me creas a mí. Ha habido muy buenos informes sobre esto durante años. (Aquí, aquí y aquí. No pude encontrar ejemplos de políticos varones que hayan sido objeto de tales abusos sexuales.

"Estos videos deepfake están diciendo a las mujeres que se aparten del ojo público", me dijo Claire McGlynn, una experta líder en respuestas legales al abuso sexual en línea. "Esto es hombres diciéndoles a las mujeres: 'Esto es lo que podemos hacerte'. Muchas mujeres más jóvenes son muy conscientes de que esta es [una] nueva amenaza que se cierne sobre ellas". Por mucho que lo que le pasó a Swift haya llamado la atención mundial, el porno deepfake --- impulsado por la última generación de tecnología de inteligencia artificial que hace que sea demasiado fácil crear y compartir ese contenido explícito no consensuado --- está en todas partes. Está sucediéndoles a las adolescentes en España; está sucediéndoles a los actores de cine de Corea del Sur; Cada vez más, a las mujeres políticas como Hunter se les ocurre silenciar su participación en el proceso democrático.

Para algo tan extendido, pocas leyes, si es que hay alguna, han prohibido la creación y el intercambio de imágenes de abuso sexual. Estados de EE. UU. como California y Nueva York tienen leyes sobre pornografía deepfake, pero, hasta ahora, no se han utilizado. A raíz del escándalo de Swift, los senadores estadounidenses se pusieron manos a la obra para proponer una legislación --- aunque es poco probable que llegue a nada y se centra en que las víctimas demanden a sus atacantes. La Ley de Servicios Digitales de la UE no dice casi nada sobre la pornografía deepfake, aunque los legisladores europeos respaldaron esta semana una nueva ley para penalizar el intercambio de este tipo de imágenes no consensuadas --- aunque solo a partir de 2027. La Ley de Seguridad en Línea del Reino Unido tiene disposiciones dirigidas a la pornografía deepfake, pero cómo se implementará aún está muy en el aire.

Hasta ahora, Australia ha ido más lejos a través de su Ley de Seguridad en Línea, que otorga al comisionado de seguridad en línea del país poderes para obligar a las personas que comparten pornografía deepfake a eliminar el abuso sexual basado en imágenes. Sin embargo, no incluye sanciones penales. El año pasado, la agencia utilizó esa autoridad para obligar a un australiano que vive en Filipinas a eliminar la pornografía deepfake --- pero solo después de que ese individuo regresara a Australia y fuera arrestado por la policía local por cargos de desacato al tribunal. "Estamos viendo muchos más deepfakes", me dijo la Comisionada de Seguridad Electrónica de Australia, Julie Inman-Grant, quien también ha sido blanco de ese contenido explícito y gráfico. "Es muy fácil para un joven usar Midjourney o Stable Diffusion --- aplicaciones muy poderosas para el consumidor --- para crear deepfakes de sus compañeros de clase y usarlas para intimidarlos".

Para Hunter, el político norirlandés, aquí es donde lo personal se vuelve político. Después de que la atacaran con pornografía deepfake, tuvo que explicarles a sus padres lo que estaba pasando --- y que el video generado por IA no era ella. Asistió a eventos públicos, incluso tomó una copa en el pub, donde la gente hizo insinuaciones humillantes. Tuvo que sopesar --- dado que sucedió semanas antes de una elección --- si salir públicamente con una refutación o esperar hasta que se contaran todos los votos. Sintió que fue atacada no por sus opiniones políticas, sino porque era una mujer joven. "Es grotesco ver una tecnología emergente utilizada para abusar de las mujeres", dijo. "Años de construir confianza en mi comunidad y de una sola vez, significó dulce FA".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4