Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4535

Incidentes Asociados

Incidente 9048 Reportes
Kate Isaacs, Advocate Against Image-Based Abuse, Reports Being Deepfaked

Loading...
La pornografía deepfake arruina vidas, pero solo se necesitan 8 segundos para crear una imagen
dailymail.co.uk · 2022

Kate Isaacs, que estaba revisando su teléfono, abrió Twitter y vio una publicación que la consumió de terror.

Alguien había tuiteado públicamente un video explícito en el que parecía que ella estaba teniendo sexo.

"El pánico me invadió", le dijo Kate a Metro.co.uk. "No podía pensar con claridad en ese momento.

"Tu mente se acelera por completo: 'Pero, ¿cuándo fue eso?, ¿con quién estoy teniendo sexo?, no lo recuerdo, no creo que haya consentido esto'".

"Da mucho, mucho miedo verlo, porque piensas: 'Dios mío, soy yo, estoy en un vídeo porno y todo el mundo lo va a ver: mis jefes, mi abuela, mis amigos'".

Kate Isaacs contó a Metro.co.uk cómo el 'pánico' la invadió cuando descubrió que era víctima de pornografía deepfake

'Te sientes vulnerable, porque tu cuerpo está ahí, pero no recuerdas en absoluto que te hayan filmado'.

Después de su sorpresa inicial, Kate se dio cuenta de algo aún más inquietante: aunque era su cara la que aparecía en el vídeo, el cuerpo que aparecía en él no era el suyo.

La activista de 30 años se había convertido en víctima de la llamada pornografía deepfake, el término que se utiliza para los vídeos pornográficos realizados con imágenes robadas que se transforman en material pornográfico mediante software.

Kate, de 30 años, cree que fue atacada debido a su campaña #NotYourPorn de 2020, que vio la eliminación de 10 millones de videos de pornografía infantil y no consentidos en Pornhub.

La periodista Jess Davies presenta el nuevo documental de la BBC3 Deepfake Porn: Could You Be Next?, donde descubrió que solo se necesitan unos segundos para hacer un deepfake.

"Es terrible, porque esperaba ser el objetivo, y antes de salir en televisión por primera vez, revisé mi teléfono y borré todas las fotos que podrían usarse en mi contra", explica.

"Pero no creo que me haya preparado para que me convirtieran en un video porno".

Aún más sorprendente, los perpetradores también "doxearon" a Kate, publicando su trabajo y su dirección de casa en línea.

Ella agrega: "Estaba recibiendo amenazas de que me iban a seguir a casa mientras estaba oscuro, y que me iban a violar, filmar y subir a Internet".

Kate comparte su experiencia en el nuevo documental de la BBC3 Deepfake Porn: Could You Be Next?, presentado por la periodista Jess Davies, que analiza lo fácil que es crear este tipo de contenido.

En el documental, Jess, de 29 años, habla con los creadores de deepfakes, 'Gorkem', que crea imágenes y vídeos para clientes, y 'MrDeepFakes', cuyo sitio web del mismo nombre recibe 13 millones de visitantes cada mes y tiene casi 250.000 miembros.

Gorkem dice: 'Puedo entender que algunas mujeres sufran daños psicológicos por esto, pero por otro lado, pueden decir simplemente: 'No soy yo, esto ha sido falsificado, no puedo sufrir ningún daño por esto.

'Creo que deberían reconocerlo y seguir con su día'.

El Sr. Deepfakes está de acuerdo: 'Creo que mientras no intentes hacerlo pasar por algo real, eso no debería importar realmente porque es básicamente falso.

"No creo que se requiera el consentimiento, es una fantasía, no es real".

Kate, víctima de deepfake, no está de acuerdo. "No sé en qué mundo vive, si es capaz de crear estas cosas y pensar que no tienen ningún impacto en la reputación de alguien", dice.

Como parte de su investigación, Jess también descubrió que las aplicaciones disponibles como FaceMagic (que tiene una clasificación para mayores de 12 años) pueden crear un deepfake en menos de un minuto. En el documental, hace un clip de sí misma en unos ocho segundos.

"Solo tienes que subir una foto y puedes hacer un video porno deepfake en segundos", explica.

"Puede que no parezcan los más realistas, pero aún así es suficiente para sentir vergüenza y humillación".

Visita Metro.co.uk para leer la versión completa de este artículo

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd