Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4534

Incidentes Asociados

Incidente 9048 Reportes
Kate Isaacs, Advocate Against Image-Based Abuse, Reports Being Deepfaked

Loading...
'Sicko impuso mi cara en una escena de sexo. Me llevó mucho tiempo darme cuenta de que no era yo'
dailystar.co.uk · 2023

Una mujer se quedó atónita al descubrir que su cara había sido publicada en una página pornográfica deepfake en una cuenta pública de Twitter.

Kate Isaacs dijo que estaba navegando por Twitter y se horrorizó al ver que una película pornográfica publicada en el sitio que mostraba a un hombre y una mujer teniendo sexo parecía estar protagonizada por ella.

Reveló que inicialmente no entendió que se trataba de un video deepfake, y que su mente se esforzaba por comprender cómo podía existir el video.

“Recuerdo sentir calor, una ola me invadió. Se me cayó el estómago. “Ni siquiera podía pensar con claridad”, le dijo Kate, del oeste de Londres, a MailOnline (https://www.dailymail.co.uk/femail/article-12069161/A-porn-clip-popped-phone-star.html).

“Pensaba: ‘¿Dónde fue esto? ¿Alguien lo filmó sin que yo lo supiera? ¿Por qué no puedo recordarlo? ¿Quién es este hombre?”.

Admitió que le llevó varios minutos darse cuenta de que el video no era de ella y que, de hecho, era un deepfake.

Los deepfakes son videos que han sido alterados de manera tan inteligente con un software complejo que parecen ser reales.

Si bien el software de deepfaking se puede utilizar para una amplia gama de propósitos, se utilizan de manera más siniestra para alterar películas pornográficas cambiando digitalmente las caras de los actores y actrices involucrados.

En 2017, varias actrices famosas, entre ellas Emma Watson, Natalie Portman y Scarlett Johansson, fueron objeto de vídeos deepfake no consensuados, y la red se incendió tras creer que los vídeos eran reales.

Al parecer, a Kate le pasó lo mismo, que dijo:

“Fue tan convincente que incluso me llevó unos minutos darme cuenta de que no era yo”.

“Cualquiera que me conociera pensaría lo mismo. Fue devastador. Me sentí violada y todo el mundo lo vio”.

Dijo que, si bien nunca logró averiguar quién hizo el vídeo de ella, cree que fue atacada por su trabajo de campaña contra la pornografía no consentida.

Si bien su trabajo como fundadora de la campaña NotYourPorn la vio hablar en contra del uso de imágenes de mujeres, a menudo desnudas, con fines pornográficos sin consentimiento, cree que el vídeo de ella se hizo utilizando imágenes inocentes de ella en Internet.

“Esto es todo lo que hace falta ahora. “Esto convierte a cada mujer que tiene una imagen de sí misma en línea en una víctima potencial; eso es prácticamente lo que somos todas hoy en día”, dijo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd