Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4524

Incidentes Asociados

Incidente 90317 Reportes
Northern Ireland MLA Cara Hunter Allegedly Targeted by Deepfake Pornography Ahead of May 2022 Assembly Election

El mundo del porno falso: cómo se utilizan vídeos inventados para dañar a las mujeres
inews.co.uk · 2022

“Fue lo más aterrador que he vivido nunca. No quería volver a casa andando ni estar sola... Básicamente, se trataba de silenciarme”, dice la víctima Kate Isaacs

Cuando Kate Isaacs vio el vídeo por primera vez, se quedó confundida. Mostraba los cuerpos de actores porno, pero la cara que estaba mirando en la pantalla era la suya. Su cara había sido añadida digitalmente al cuerpo de otra persona. “Me llevó un par de segundos darme cuenta de que [el cuerpo] no era yo”, dice ahora, casi dos años después. “Recuerdo que se me pusieron las mejillas rojas y pensé: ‘¿Quién es esta persona? ¿He tenido sexo con esta persona?’”

Era finales de 2020 e Isaacs, de Londres, estaba muy emocionada. Había formado parte de una campaña que había obligado a Pornhub, uno de los sitios web más visitados del mundo, a eliminar vídeos pornográficos que fueran perjudiciales, ilegales o no consensuales. Su contribución, liderando el grupo Not Your Porn, ayudó a que se eliminaran millones de vídeos. Desafortunadamente, la victoria también la convirtió en un objetivo en las redes sociales.

“Fue una victoria para las víctimas de abuso sexual basado en imágenes”, dice, recordando la eliminación. “Pero una pequeña minoría de hombres en Internet no estuvo de acuerdo. Y eso me convirtió en un objetivo”.

Pronto, se encontró siendo víctima de un ataque pernicioso, implacable y organizado. “[La gente] empezó a sacar mi cara de las fotos y a manipularla en imágenes [pornográficas] y a tuitearlas”, dice. “Luego empezaron a usar mis entrevistas en los medios para ponerme en videos deepfake. Hubo tuits que decían que solo quería deshacerme de la pornografía porque tengo un video porno del que me avergüenzo. Y esa historia fue bastante creíble para mucha gente”.

Aunque los videos eran digitales y se compartían en línea, Isaacs dice que sintió las repercusiones en su vida cotidiana fuera de línea.

“Fue lo más aterrador que he experimentado. “No quería volver a casa andando” (https://inews.co.uk/inews-lifestyle/violence-women-walking-home-me-too-1726725?ico=in-line_link) ni estar sola. Era invierno, así que la idea de volver a casa andando en la oscuridad me daba mucho miedo”, afirma. “Básicamente, se trataba de silenciarme”.

Y funcionó. Como resultado de los vídeos, Isaacs borró su cuenta de Twitter y sintió que su mundo se encogía. “Ser víctima de abuso sexual basado en imágenes tiene consecuencias reales. Da miedo, es vergonzoso y humillante”.

La pornografía deepfake es un fenómeno relativamente nuevo, ya que la tecnología que se utiliza para crear vídeos convincentes de intercambio de caras se ha vuelto más accesible en los últimos cinco años. Antes, era inaccesible para la población general y su uso era caro. Ahora cualquiera puede descargar fácilmente una aplicación gratuita o barata e insertar digitalmente una cara en un vídeo. A veces, esta tecnología se utiliza para divertirse (e incluso hay usos terapéuticos cuando se trata de tratar problemas de salud mental, crear recreaciones o escenarios virtuales), pero no es difícil ver cómo los deepfakes también se pueden utilizar para desacreditar y socavar a las personas.

Cuando se puede crear de forma rápida y sencilla un vídeo que muestre a una persona diciendo o haciendo algo que en realidad nunca ha dicho o hecho, el potencial de daño es enorme. Recientemente, el programa de la BBC, The Capture, mostró cómo se puede utilizar esta tecnología para desacreditar a figuras políticas mediante la creación de una imagen deepfake que enviará mensajes a los medios de comunicación o aparecerá en la televisión. La primera serie también mostró cómo se utilizaban cámaras de seguridad deepfake para incriminar injustamente a alguien por un delito. Pero esta tecnología también se puede utilizar para dañar a las personas como una forma de abuso sexual.

Sophie Maddocks, académica que investiga los derechos civiles en el ámbito cibernético y la alfabetización mediática de los jóvenes en la Universidad de Pensilvania, dice que cree que gran parte de la preocupación se ha centrado en la posibilidad de que se produzcan deepfakes políticos y ha pasado por alto la violencia sexual. “La violencia sexual contra las mujeres no se toma tan en serio en los medios o en la política como nos gustaría, y ese patrón se está repitiendo en la cobertura mediática y en las respuestas políticas a los deepfakes”.

Maddocks dice que la violencia sexual contra las mujeres no se toma tan en serio en los medios y la política como a ella le gustaría (Foto: suministrada)

Por eso, cuando la tecnología deepfake comenzó a popularizarse, “la gente estaba muy preocupada por esta idea de deepfakes políticos, preguntándose qué va a pasar si tenemos dos discursos presidenciales y no sabemos cuál es el verdadero”. Sin embargo, ese no era el único problema acuciante. “En realidad, era bastante obvio que los deepfakes se estaban utilizando predominantemente como una forma de abuso sexual cibernético”, dice Maddocks. “La mayoría de los deepfakes son videos pornográficos deepfake”.

Cualquiera puede convertirse en el sujeto de un deepfake: todo lo que se necesita es una fotografía digital de una víctima potencial. “Por lo general, implica cambiar la cara de una persona en un video porno para que parezca que la persona estaba protagonizando un video porno o estaba manteniendo relaciones sexuales”, explica Maddocks. “Se suele utilizar para desacreditar a las [víctimas] o avergonzarlas; lo vemos normalmente con las mujeres que denuncian los desequilibrios de poder o las mujeres que hablan en público en general”.

Cara Hunter, una política norirlandesa de 26 años, estaba en las últimas fases de una campaña electoral cuando se convirtió en víctima de pornografía falsa maliciosa. En abril de 2022, apenas un par de semanas antes de ser elegida diputada del SDLP (Partido Socialdemócrata y Laborista) por el este de Derry, se dio cuenta de que circulaba por Internet un vídeo pornográfico en el que parecía estar practicando sexo oral.

“Estaba en una fiesta familiar”, recuerda. “Era el 90 cumpleaños de mi abuela, estaba rodeada de mi familia y mi teléfono no paraba de sonar, sonar, sonar. Y durante las siguientes semanas, siguió así”.

Hunter fue blanco de ataques en las últimas etapas de su campaña electoral (Foto: suministrada)

Hunter todavía no está segura de si el video fue manipulado con tecnología deepfake o si quienes deseaban desacreditarla buscaron entre los videos pornográficos hasta que encontraron a una actriz que se parecía mucho a ella. De cualquier manera, ser víctima de pornografía falsa fue profundamente angustiante.

El video fue compartido en Twitter, Facebook y en grupos de WhatsApp y Hunter estima que decenas de miles de personas lo vieron. La inundaron de mensajes y rápidamente se sintieron las consecuencias en la vida real. “Dos días después de que el video comenzara a circular, un hombre me detuvo en la calle cuando caminaba sola y me pidió sexo oral”, me cuenta.

“Sacó el video. Fue horrible, parecía que todo el mundo lo creía. La gente se reía, se burlaba y se mofaba de mí en la calle”.

Para Hunter, esconderse no era una opción. “Tuve que salir a hacer campaña mientras miles de personas pensaban que yo estaba en un video porno”, dice. “Así que tocaba a las puertas de extraños, llena de miedo, especialmente si un hombre joven abría la puerta”.

Abandonar las redes sociales también era imposible en un momento tan crucial de la campaña electoral y Hunter se sintió atrapada en un aprieto. “Me puso en una situación incómoda porque sentí que no podía hablar de ello públicamente, porque eso era lo que el individuo que creó el video quería que hiciera”. Fue, dice, una forma de “guerra psicológica”.

Hunter acudió a la policía y se mostró "comprensiva", pero al final no pudieron ayudarla. "La legislación actual está totalmente desfasada", afirma. "Después de informar a la policía, me dijeron que su equipo cibernético tenía poderes muy limitados". Se enfrentó a una decepción similar cuando alertó a las empresas tecnológicas sobre el vídeo en sus plataformas.

En julio de 2022, la Comisión de Derecho recomendó que el Gobierno cambiara la ley para que compartir pornografía deepfake sin consentimiento fuera un delito y pudiera dar lugar a una pena de prisión. Actualmente, no existe un solo delito penal en Inglaterra y Gales que se aplique a la difusión de imágenes íntimas no consentidas. Pero el Gobierno ha retrasado la aprobación de su Proyecto de Ley de Seguridad en Internet que se suponía que debía abordar este problema.

Isaacs, que puede hablar con la autoridad tanto de una víctima como de una activista, dice que es un “trabajo enorme” abordar los deepfakes, la pornografía falsa y el abuso sexual basado en imágenes. “El primer problema es que nuestro proceso legislativo no es adecuado para el propósito cuando se trata de daños en línea”, dice. “Avanza demasiado lento y no puede seguir el ritmo de la tecnología. Nuestro proceso legislativo en el Reino Unido no puede proteger de forma segura y proactiva a las personas en línea porque es demasiado lento”.

También debe darse prioridad a la regulación de las empresas tecnológicas, incluidas las plataformas de redes sociales y los sitios pornográficos, afirma: “En este país no tenemos el control. No me refiero a la red oscura. Se trata de empresas que operan en el Reino Unido, que forman parte de nuestra economía y, por lo tanto, deberían rendir cuentas por sus prácticas inmorales, poco éticas e ilegales”.

Enfrentar la magnitud del problema de la pornografía falsa es crucial, afirma Maddocks. “El sexo es un tabú”, señala. “La gente que trabaja en empresas tecnológicas emergentes y en centros de investigación no quiere sentarse en una mesa redonda y hablar de sexo. No quieren reconocer que la raíz de tantos problemas tecnológicos contemporáneos es esta forma de sexualidad muy consumista en el espacio de Internet.

“La pornografía genera más dinero que la mayoría de los equipos deportivos juntos. La pornografía impulsa Internet. Pero no se habla de eso”.

La pornografía falsa puede ser una forma devastadoramente eficaz de silenciar a las mujeres, pero solo si mantenemos conversaciones francas al respecto podremos empezar a abordar el problema. “No nos gusta pensar en estas cosas, pero es necesario sacarlas a la luz y debatirlas”, afirma Hunter.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f