Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4523

Incidentes Asociados

Incidente 90317 Reportes
Northern Ireland MLA Cara Hunter Allegedly Targeted by Deepfake Pornography Ahead of May 2022 Assembly Election

Las mujeres de la vida real cuyos rostros han sido robados por IA: una activista enfrentó una andanada de abusos cuando se publicó pornografía deepfake en Twitter, un político casi vio frustrado su sueño electoral por un video falso con clasificación X y una modelo que vio su rostro usado para un anuncio en el metro
dailymail.co.uk · 2024

La furia ha estallado por las imágenes pornográficas deepfake de Taylor Swift que han circulado ampliamente en las redes sociales en los últimos días, pero el problema también está traumatizando a decenas de mujeres de la vida real en el Reino Unido.

La nueva tecnología IA ha hecho que sea más fácil para los trolls misóginos robar fotos de mujeres reales antes de trasplantar algunos de sus rasgos, como su cara, en material pornográfico antes de compartirlo en línea sin su consentimiento.

El auge de la pornografía deepfake es ampliamente reconocido como un problema creciente, pero el lento progreso en la formulación de nuevas leyes para abordarlo significa que las víctimas a menudo se quedan sin ningún recurso legal.

La investigadora Kate Isaacs estaba desplazándose por X cuando apareció un video en sus notificaciones. Cuando hizo clic en reproducir, se dio cuenta de que el metraje mostraba a una mujer en medio de un acto sexual con su rostro superpuesto al cuerpo de la mujer.

'Recuerdo sentir calor, sentir una ola invadirme. Se me cayó el estómago. Ni siquiera podía pensar con claridad. Pensaba: '¿Dónde fue esto? ¿Alguien lo ha filmado sin que yo lo supiera? ¿Por qué no puedo recordarlo? ¿Quién es este hombre?''', le dijo al Mail.

La investigadora Kate Isaacs estaba desplazándose por X cuando apareció un video en sus notificaciones que la mostraba en un video porno deepfake.

Nassia Matsa, una escritora de tecnología y modelo, viajaba en el metro cuando notó un anuncio de una compañía de seguros que había usado su rostro sin permiso.

'Fue tan convincente, que incluso me tomó unos minutos darme cuenta de que no era yo. Cualquiera que me conociera pensaría lo mismo. Fue devastador. Me sentí violada y todo el mundo lo pudo ver.

La mujer de 30 años, que fundó la campaña #NotYourPorn, nunca encontró quién hizo el video porno ofensivo de ella, pero cree que fue atacada específicamente porque había hablado sobre el aumento del "porno no consensuado" en el pasado.

Según el Proyecto de Ley de Seguridad en Línea, que ahora es ley, quienes comparten deepfakes pornográficos pueden ser encarcelados por hasta seis meses.

Hasta este punto, para que se presentaran cargos penales, las autoridades tenían que poder demostrar que los deepfakes estaban motivados por malicia, lo que a menudo es difícil cuando se los descarta como bromas.

Sin embargo, sigue siendo increíblemente difícil determinar las verdaderas identidades de quienes comparten muchos deepfakes.

Los deepfakes más realistas se logran con imágenes en movimiento, lo que significa que un video inocente publicado en su cuenta de Instagram, de una boda familiar, por ejemplo, sería ideal.

El video porno falso de la Sra. Isaacs, que apareció en 2020, se había realizado utilizando imágenes completamente inocentes tomadas de Internet.

"Esto es todo lo que se necesita ahora", dijo. "Convierte a cada mujer que tiene una imagen de sí misma en línea en una víctima potencial; eso es prácticamente lo que somos todas, en estos días".

Según el nuevo proyecto de ley de seguridad en línea, que ahora es ley, quienes comparten deepfakes pornográficos pueden ser encarcelados por hasta seis meses.

Hasta este punto, para presentar cargos penales, las autoridades tenían que poder demostrar que los deepfakes estaban motivados por malicia, lo que a menudo es difícil cuando se los descarta como bromas.

Sin embargo, sigue siendo increíblemente difícil determinar las verdaderas identidades de quienes comparten muchos deepfakes.

Cara Hunter, una política norirlandesa, se hizo un vídeo porno falso mientras se presentaba a las elecciones de abril de 2022.

La joven de 26 años estaba en la fiesta del 90 cumpleaños de su abuela cuando se dio cuenta de que habían empezado a circular por Internet unas imágenes que la mostraban practicando sexo oral.

"Estaba rodeada de mi familia y mi teléfono no hacía más que sonar ding, ding, ding. Y durante las siguientes semanas, siguió así", le dijo a la i.

Cara Hunter, una política norirlandesa, hizo un video porno falso de ella mientras se postulaba para las elecciones en abril de 2022

Una mujer subió una selfie en el espejo a su cuenta de Instagram antes de que un troll la contactara horas después

El mensaje se burlaba de ella con una versión desnuda falsa editada por IA de la selfie que había publicado en su cuenta

La Sra. Hunter, que fue elegida miembro del SDLP de la Asamblea Legislativa de Irlanda del Norte por el este de Derry, todavía no está segura de si el video era un deepfake o si se utilizó a una actriz porno que se parecía mucho a ella.

Se compartió decenas de miles de veces en línea y provocó que la acosaran en la calle.

"Dos días después de que el video comenzara a circular, un hombre me detuvo en la calle cuando caminaba sola y me pidió sexo oral", dijo.

"Sacó el video. Fue horrible, parecía que todos lo creían. La gente se reía, se burlaba y se mofaba de mí en la calle.

En otro caso impactante el año pasado, una mujer quedó horrorizada después de que un extraño convirtiera su selfie frente al espejo en una enfermiza foto falsa de desnudo generada por IA y luego se burlara de ella con ella.

Courtney se despertó y descubrió que un extraño le había enviado una foto de ella desnuda por Instagram, acompañada de un emoji sonriente.

Sorprendida, la aspirante a trabajadora social supo que la foto no era real.

La persona había hecho una captura de pantalla de un selfie que había publicado en su cuenta y lo había subido a uno de los muchos sitios web de generación de desnudos falsos que "desnudan virtualmente" a cualquier persona en cualquier foto.

Courtney, que tiene 20 años, bloqueó la cuenta y ahora ha eliminado todas las fotos de ella misma de sus redes sociales por temor a que esto vuelva a suceder.

Pero quedó en un estado constante de ansiedad, pensando si la foto había sido enviada a alguien más: a sus seguidores, sus amigos, su familia.

Courtney -no es su nombre real- le dijo a MailOnline: 'No había sabido nada de esta persona en dos años y me desperté una mañana, el viernes pasado. Me desperté a las 7 a. m. para ir a la universidad, pero recibí esta imagen extremadamente gráfica que definitivamente no era real.

'La habían sacado de mi Instagram y editada con IA.

'Estaba en shock. De ninguna manera eso sucedió así de simple. Pero me di cuenta de la gravedad de la situación más tarde ese día... a quién podrían haberle enviado eso'.

Taylor Swift, a quien vieron con su novio Travis Kelce, es quizás la víctima más notoria de pornografía deepfake

X ahora ha bloqueado a los usuarios que buscan el nombre de la estrella

Los videos pornográficos no son el único uso de las imágenes de mujeres robadas por IA.

Nassia Matsa, una escritora de tecnología y modelo, viajaba en el metro cuando notó un anuncio de una compañía de seguros que incluía a una modelo cuyo rostro era sorprendentemente similar al suyo.

"Nunca he hecho una sesión de fotos para esta compañía de seguros, pero reconozco mis rasgos, y la pose, el cabello y el maquillaje son similares a una sesión de fotos que hice en 2018 para una revista con sede en París", escribió en Dazed Digital.

Unos meses después, vio un anuncio de la misma compañía de seguros que incluía los rasgos faciales distorsionados de una de sus amigas.

Continúa: “Después de investigar un poco, me di cuenta poco a poco: nos habían manipulado con inteligencia artificial sin nuestro permiso; nuestras caras y cuerpos se convirtieron en muñecos digitales para promocionar un proyecto en el que no participamos.

“Y para empeorar las cosas, ni siquiera puedo probarlo ni hacer nada al respecto, ya que la regulación en torno a la IA es una zona gris. Después de todo, ¿quién es realmente el dueño de mi cara?”.

El año pasado se supo que la actividad en los foros dedicados a la pornografía falsa de celebridades [casi se ha duplicado en un año](/news/article-12545433/Celebrity-deep-fake-porn-doubles-year-thanks-sophisticated-AI-stars- including-Taylor-Swift-Natalie-Portman-Emma-Watson-targeted.html) a medida que la IA sofisticada se vuelve ampliamente disponible para el público.

Pero las mujeres normales también son regularmente blanco de ataques, con sitios plagados de alardes de usuarios que dicen que su tecnología "ayuda a desnudar a cualquiera", así como guías sobre cómo crear material sexual, incluyendo consejos sobre qué tipo de imágenes usar.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f