Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5592

Incidentes Asociados

Incidente 7543 Reportes
Female Politicians in the United Kingdom Reportedly Victimized by Purported Deepfake Pornography

Loading...
Debemos luchar contra el futuro de las deepfakes
newstatesman.com · 2025

Penny Mordaunt se abrió paso a la fuerza en el imaginario colectivo británico al convertirse en la inesperada estrella revelación de la coronación del rey Carlos III en mayo de 2023. Habíamos perdido a una reina estoica; aquí estaba otra. Mordaunt portó la Espada del Estado, la más pesada de la colección real, durante 50 minutos. Con el mundo observando, Mordaunt mantuvo la compostura, la imagen de la solemnidad ceremonial, la fuerza, la tradición y el honor.

Pero imaginen ese rostro manchado con pornografía violenta. En declaraciones recientes a BBC Newsnight, la exdiputada conservadora y ministra reveló que había sido víctima de pornografía deepfake mientras servía en el parlamento. Su rostro, junto con el de otras diputadas, como Priti Patel y Angela Rayner, había sido colocado digitalmente en vídeos explícitos. "Fue deliberadamente humillante y violento", declaró. Los deepfakes son la última frontera grotesca en la batalla por la dignidad digital, donde la inteligencia artificial se utiliza como arma para humillar, desempoderar y violar los cuerpos de las mujeres. Y el daño infligido no es virtual: puede ser tan real como cualquier otra forma de violencia sexual. Titulares de 2013 pueden haber afirmado lo contrario: "No hay daño en los videos de violación simulada (siempre que estén bien hechos), dicen los ministros", decía el Telegraph. Aunque esto es anterior a la creación de los deepfakes por algunos años, es desalentador que, incluso hoy, algunos todavía piensen que este principio básico de la autonomía femenina está en debate. La violencia digital es violencia, como entiende Mordaunt. "Quienes están detrás de esto", dijo, "no se dan cuenta de las consecuencias en el mundo real cuando hacen algo así".

Desde que se creó el primer deepfake en 2017, los vídeos sexualmente explícitos generados por IA han proliferado por internet. Un estudio calculó que se compartieron medio millón de deepfakes en 2023; se espera que el total de este año sea de ocho millones. De todos los deepfakes, el 98 % son sexualmente explícitos, y el 99 % son de mujeres. Esta tecnología es misógina y, actualmente, no está regulada. Peor aún, ahora es tan sofisticada que los espectadores ya no se dan cuenta de que están consumiendo falsificaciones. Nos encontramos al borde del abismo, ante la posibilidad de que toda una generación de hombres jóvenes cuya comprensión sexual del consentimiento se vea distorsionada por alucinaciones digitales.

El gobierno de Keir Starmer ha mostrado cierta disposición a abordar los problemas relacionados con los deepfakes. Las enmiendas a la Ley de Seguridad en Línea, que exigen que los sitios web de pornografía implementen medidas de verificación de edad, entraron en vigor el 25 de julio. El objetivo es evitar que los niños accedan a material explícito y, por lo tanto, protegerlos. Sin embargo, cabe destacar las demoras innecesarias antes de la introducción de la legislación. (Si bien es ilegal distribuir deepfakes, es legal crear uno. Rishi Sunak se comprometió a legislar contra la producción de deepfakes en abril de 2024, aunque dicha legislación nunca se materializó; Keir Starmer prometió lo mismo en enero de 2025, pero la producción sigue siendo legal). También cabe destacar que gran parte del porno reside fuera de los sitios porno tradicionales, circulando en los turbios rincones de los grupos de Telegram, los hilos de Reddit y 4chan.

Sean cuales sean las medidas, necesitamos más. El porno deepfake impulsado por IA es un nuevo y preocupante escenario de abuso que avanza, como todos los desarrollos de IA, a un ritmo alarmante. Pero la tecnología está hecha por humanos. El andamiaje de nuestras vidas digitales está diseñado, cuidado y mantenido por otras personas. La espada que Mordaunt empuñó en la coronación del rey Carlos fue histórica y simbólica. Hoy, su espada es retórica: un llamado a la acción contra la degradación de la autonomía, la identidad y la seguridad femeninas en un mundo que trata cada vez más los rostros y cuerpos de las mujeres como propiedad pública.

Mordaunt ha expuesto una aterradora falla en la sociedad británica. Los niños tienen acceso ilimitado a la pornografía. Las mujeres son transformadas en quimeras alteradas digitalmente sin su consentimiento y sin posibilidad de recurso. Permitir que esto continúe no es solo un fallo regulatorio, sino también cultural. El cambio tecnológico es implacable; la violencia contra las mujeres es constante. Internet es difícil de contener y está lleno de actores maliciosos. Pero debemos hacer acopio de la voluntad para proteger la privacidad y la dignidad básicas. Por pesada que sea, debemos levantar y portar esa espada.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd