Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4531

Incidentes Asociados

Incidente 9048 Reportes
Kate Isaacs, Advocate Against Image-Based Abuse, Reports Being Deepfaked

Loading...
“Descubrí pornografía deepfake mía en Internet”
independent.co.uk · 2022

Una mujer ha revelado cómo fue descubrir pornografía deepfake de ella misma en Internet.

Kate Isaacs dijo que era una “violación” ser víctima de “deepfakes” (imágenes o vídeos explícitos que han sido manipulados para parecerse a alguien sin su consentimiento) y acusó a su atacante de intentar “silenciarla” y “asustarla”.

Los comentarios de Kate Isaacs llegan después de que el gobierno anunciara que distribuir pornografía deepfakes, así como compartir imágenes “downblouse” –fotos no consentidas tomadas debajo de la blusa de una mujer– será ilegal.

La policía y los fiscales tendrán más poder para exigir cuentas a los perpetradores en virtud de una enmienda al Proyecto de Ley de Seguridad en Internet, y los distribuidores de deepfakes ahora podrían enfrentarse a una pena de prisión en virtud de las medidas sugeridas.

La Sra. Isaacs, de 30 años, le dijo a The Independent que cree que fue víctima de un deepfake porque creó una campaña llamada #NotYourPorn para eliminar contenido no consensuado de la popular plataforma de entretenimiento para adultos Pornhub después de que su amiga terminara en el sitio sin su consentimiento.

En 2020, la campaña ayudó a presionar a Pornhub para que eliminara aproximadamente 10 millones de videos no verificados en el sitio para despojar a la plataforma de videos de pornografía infantil y no consensuados.

La Sra. Isaacs dijo: “Ese fue un gran día. Difundió un mensaje. Desafortunadamente, después de ese incidente, me convertí en el objetivo en Twitter de un grupo muy pequeño pero ruidoso de hombres. Ellos sintieron que tenían derecho a ver pornografía no consentida.

“Estaban en contra de la campaña y les molestó que hubiera eliminado la pornografía de Pornhub. Después de eso, comenzaron a atacarme en línea, publicaron mi dirección de trabajo y de casa en Twitter.

“Comentaron debajo que me encontrarían, me seguirían a casa, me violarían, lo filmarían y lo subirían a Pornhub. Eso fue completamente aterrador, nunca había experimentado un miedo así en mi vida”.

Estaban en contra de la campaña y les molestó que hubiera eliminado la pornografía de Pornhub. Después de eso, comenzaron a atacarme en línea, publicaron mi dirección de trabajo y de casa en Twitter.

La activista agregó que parte de su ataque fue convertirla en una deepfake, describiendo la terrible experiencia como “un acto de violencia sexual”.

Dijo: “Tomaron una entrevista de televisión de la BBC y manipularon mi rostro en una película porno de alguien teniendo sexo. Fue muy violador. Durante unos breves segundos, no supe que era un deepfake y me aterroricé al verlo porque no podía recordar ese momento ni al hombre”.

Al inspeccionarlo más de cerca, se dio cuenta de que era un deepfake, agregó la Sra. Isaacs, que hace campaña contra el abuso sexual basado en imágenes (https://en.wikipedia.org/wiki/Sexual_abuse).

Dijo: “Alguien estaba usando mi identidad, mi perfil sin mi consentimiento de manera sexual. Entiendo que algunas personas no sienten que sea un gran problema.

“Pero nos hemos topado con líneas borrosas entre la percepción y la realidad porque la percepción es la realidad ahora. Me parece aborrecible que hayan usado mi imagen para silenciarme, asustarme o para obtener gratificación sexual sin mi consentimiento”.

Muchos han hecho sonar las alarmas sobre cómo los deepfakes pueden engañar a miembros del público, y una investigación previa realizada por la empresa de ciberseguridad Deeptrace indicó que alrededor del 96 por ciento de todos los videos deepfake son pornografía no consensuada, mientras que las mujeres son el objetivo en el 96 por ciento de los casos.

Las medidas recién reveladas harán que los ministros introduzcan leyes adicionales para abordar otros actos abusivos, como ocultar cámaras secretas para capturar fotos o videos de una persona sin obtener su consentimiento.

Nicole Jacobs, comisionada de abuso doméstico, dijo: "Acojo con agrado estas medidas del gobierno que tienen como objetivo hacer que las víctimas y los sobrevivientes estén más seguros en línea, en las calles y en sus propios hogares".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd