Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4536

Incidentes Asociados

Incidente 9048 Reportes
Kate Isaacs, Advocate Against Image-Based Abuse, Reports Being Deepfaked

Loading...
El porno deepfake arruina vidas, pero como descubrió una mujer, se necesitan segundos para hacerlo
metro.co.uk · 2022

En 2020, Kate Isaacs, al revisar su teléfono, abrió su cuenta de Twitter y vio una publicación que la consumió de puro terror.

Alguien había tuiteado públicamente un video explícito en el que parecía que ella tenía relaciones sexuales (https://metro.co.uk/lifestyle/sex/).

Sin recordar haber sido grabada en esa situación, se sintió confundida, llena de miedo y pavor.

“El pánico se apoderó de mí”, dice Kate. “No podía pensar con claridad en ese momento. Recuerdo que sentí que este video iba a llegar a todas partes. Tu mente se acelera por completo: “Pero, ¿cuándo fue eso?, ¿con quién estoy teniendo sexo?, no lo recuerdo, no creo que haya consentido esto”.

“Da mucho, mucho miedo verlo, porque piensas: “Dios mío, soy yo, estoy en un video porno y todos lo van a ver: mis empleadores, mi abuela, mis amigos”. Te sientes vulnerable porque tu cuerpo está ahí, pero no recuerdas en absoluto que te hayan filmado.

Tras su sorpresa inicial, Kate empezó a darse cuenta de algo aún más inquietante: si bien era su cara la que aparecía en el vídeo, el cuerpo al que estaba adherido no era el suyo. La activista de 30 años se había convertido en víctima de la [pornografía] deepfake (https://metro.co.uk/2022/05/01/people-share-experiences-of-being-exposed-to-porn-without-consent-16564562/).

A primera vista, la tecnología deepfake (una especie de IA) se puede utilizar para disfrutar caprichosamente de las tendencias de las redes sociales, ya que las imágenes o vídeos originales se fusionan con algo más para crear una realidad diferente. Se ha utilizado para crear clips virales, como el "mensaje navideño de la reina" alternativo de Channel 4 en 2020, en el que nuestra difunta monarca realizó un baile de TikTok; e incluso el filtro de cambio de género de SnapChat.

Pero lo más siniestro es que esta tecnología también se ha utilizado para fabricar noticias falsas y fraudes financieros, e incluso pornografía infantil, de venganza y deepfake.

Los perpetradores toman una imagen o un video de contenido para adultos ya existente y lo transforman con el rostro de otra persona, lo que significa que no solo están creando material explícito y no consensuado de una persona de manera sintética, sino que también están robando imágenes de trabajadoras sexuales. Según las estadísticas de la Universidad Queen Mary de Londres, el 96% de estos deepfakes son de naturaleza pornográfica y, como era de esperar, casi todos son de mujeres.

“Una investigación realizada en 2018 por la empresa de detección de fraudes Sensity AI predijo que la cifra se duplicaría cada seis meses”, explicó el mes pasado la periodista Jennifer Savin, que ha estado cubriendo esta tendencia durante unos cuatro años. “Cuatro años después, esa profecía se ha hecho realidad y más. Hay más de 57 millones de resultados de “porno deepfake” solo en Google [en el momento de escribir este artículo]. El interés de búsqueda ha aumentado un 31% en el último año y no muestra signos de desaceleración”.

Kate cree que fue el objetivo debido al increíble trabajo que había logrado dos años antes con su exitoso movimiento #NotYourPorn, que logró eliminar 10 millones de videos de pornografía infantil y no consentidos en la plataforma para adultos Pornhub.

“La premisa era algo así como: “Kate Isaacs, la cruzada antiporno: la verdadera razón por la que quiere deshacerse de este contenido es porque ella misma aparece en un vídeo y está intentando deshacerse de él, pero se arrepiente”. Fue realmente aterrador y horrible”, dice.

“Es terrible, porque esperaba que me atacaran; definitivamente había una sensación de miedo al iniciar la campaña, y antes de salir en televisión por primera vez, revisé mi teléfono y borré todas las fotos que pudieran usarse en mi contra. Pero no creo que me haya preparado para que me convirtieran en un vídeo porno, porque en lo que a mí respecta, un vídeo así no existía necesariamente. Todas esas cosas que te dicen que no hagas, que es culpar totalmente a la víctima, ya no importan, porque cualquiera puede hacer una de estas imágenes o vídeos.

“Me di cuenta de que no era yo cuando lo vi con más atención, pero eso no me quitó la emoción inicial y la adrenalina, y aunque sabía que no era mi cuerpo, nadie más lo sabía. Fue como si los creadores hubieran decidido quitarme por completo mi poder, y no había nada que yo pudiera haber hecho para evitar que eso sucediera. Simplemente lo utilizaron como arma”.

Lo que es aún más impactante es que los perpetradores encontraron las direcciones de trabajo y de casa de Kate y las publicaron en Internet.

Agrega: “Recibí amenazas de que me seguirían a casa cuando estuviera oscuro y de que me violarían, filmarían y subirían el video a Internet.

“Fue un ataque contra mí de una manera que ellos sintieron que ‘se ajustaba a mi crimen’: ‘Has tomado algo que amamos, o has alterado un sistema que hemos disfrutado y del que nos hemos beneficiado, así que te vamos a castigar de una manera que refleje eso: te vamos a poner en un video porno, ya sea mediante deepfake o violándote físicamente’”.

‘Me sentí increíblemente vulnerable y no quería salir; le pedía a mi entonces pareja que me recogiera en el gimnasio porque no quería caminar el trayecto de cinco minutos a casa en la oscuridad. Esa amenaza contra ti es simplemente aterradora. Fue una de las cosas más aterradoras por las que he pasado’.

Ahora, en un nuevo documental de la BBC3 titulado Deepfake Porn: Could You Be Next?, la periodista Jess Davies profundiza en lo fácil que es crear este tipo de contenido, habla con algunas de las mujeres, como Kate, que se han visto afectadas, y entrevista a los hombres responsables de hacer estas imágenes y videos falsos.

Jess, una ex modelo de glamour, fue víctima del robo de sus imágenes y su venta a través de foros de prostitución en línea. Pero después de estar atenta a dónde se encontraba su contenido en la web, y también de estar pendiente del de sus amigos en la industria, se dio cuenta de que esta nueva tendencia estaba ganando popularidad.

"Estaba viendo hilos que aparecían solicitando deepfakes y deep nudes, donde, usando una tecnología en línea que no funciona con los hombres en este momento, puedes quitarle la ropa a una mujer y crear una imagen de ella desnuda con un solo clic", explica. "Fue otro abuso sexual visual basado en imágenes. Al menos sabía que mis imágenes existían; con deepfaking, ni siquiera tienes voz y voto. Ellos hacen el porno de todos modos, y no se puede hacer nada al respecto.

Realmente no creo que se requiera el consentimiento: es una fantasía, no es real.

En el documental, Jess, de 29 años, habla con dos de los perpetradores que crean y facilitan este contenido gráfico: “Gorkem”, que hace las imágenes y los videos para los clientes, y “MrDeepFakes”, cuyo sitio web del mismo nombre obtiene 13 millones de visitantes cada mes y tiene casi 250.000 miembros.

“Puedo entender que algunas mujeres sufran daños psicológicos por esto, pero por otro lado, pueden simplemente decir: “No soy yo, esto ha sido falsificado, no puedo sufrir ningún daño por esto”, dice Gorkem. “Creo que deberían reconocerlo y seguir con su día”.

Insensiblemente, agrega que si hubiera una posibilidad de que pudieran rastrearlo en línea, entonces dejaría de hacerlo y “se buscaría un nuevo pasatiempo”.

El señor Deepfakes está de acuerdo: “Creo que, siempre que no intentes hacerlo pasar por algo real, eso debería importar mucho porque es básicamente falso. Realmente no creo que se requiera consentimiento; es una fantasía, no es real”.

Sin embargo, Kate no está de acuerdo.

“Es probablemente una de las cosas más ridículas que he escuchado”, dice. “No sé en qué mundo vive, si es capaz de crear estas cosas y pensar que no tienen ningún impacto en la reputación de alguien.

“Es increíblemente frustrante porque siento que definitivamente hay una extraña separación entre el “mundo virtual” y el “mundo real”, y ese ya no es el lugar donde vivimos. No entramos a nuestros navegadores de Internet a través de una conexión telefónica: cada elemento de nuestras vidas está integrado en línea.

“Desafortunadamente, vivimos en una sociedad en la que las mujeres suelen ser avergonzadas por ser promiscuas y, si se filtran fotos de una mujer desnuda o se la filma en una posición comprometedora, pueden perder su trabajo. Por lo tanto, tomar la identidad de alguien y fabricarla para ganar dinero sin su consentimiento sigue siendo violencia sexual. Es una forma de reducir a las mujeres a algo menos, de hacernos más inferiores a los hombres”.

En 2017, comenzaron a aparecer deepfakes de celebridades en salas de chat como Reddit, donde los usuarios pervertían fotos de la alfombra roja o imágenes de las redes sociales, y estrellas como Zendaya, Billie Eilish y Scarlett Johansson siguen siendo populares en los sitios web explícitos.

Pero en un mundo en el que ahora estamos acostumbrados a publicar selfies o videos de frente en aplicaciones como Instagram y TikTok, o incluso a participar en reuniones de Zoom cuando trabajamos desde casa, la “mujer común” corre más riesgo que nunca de ser deepfakeada.

La impactante realidad es que la tecnología ha avanzado a un ritmo tan rápido que ahora la gente puede crear una imagen deepfake casi de inmediato. E incluso si no están seguros de cómo empezar, los foros están llenos de consejos sobre cómo navegar por la tecnología.

Hay aplicaciones disponibles como FaceMagic que pueden crear una deepfake en menos de un minuto, y en su documental, Jess hace un clip de sí misma en unos ocho segundos.

"No necesitas una carpeta entera de diferentes ángulos, solo subes una foto y puedes hacer un video porno deepfake en segundos. Puede que no parezcan los más realistas, pero aún así es suficiente para sentir vergüenza y humillación", dice. “Eso es lo que realmente da miedo, esta tecnología está técnicamente en manos de cualquiera que tenga un teléfono inteligente: FaceMagic está disponible en la App Store de Apple para mayores de 12 años, así que puedes acceder a ella si estás en séptimo año”.

Si los usuarios no se sienten seguros de usar el software ellos mismos, entonces pueden simplemente contactar a personas, como Gorkem, para una solicitud personalizada.

Un caso de estudio del que también habla Jess es Dina, quien descubrió que un amigo cercano en el trabajo, un hombre casado, al que describió como “alguien a quien realmente respetaba” y “un tipo tan agradable y bueno”.

“En la sociedad, nos gusta pensar que los hombres que hacen estas cosas están en el sótano de su madre, bichos raros que no tienen vida y están muy aislados. La sensación de, 'Son solo incels'”, dice Jess. “Pero en realidad se trata de hombres de familia normales que publican imágenes de sus hijas, esposas, hermanas o tías y luego se sientan a la mesa con ellas o salen con ellas. Para mí, eso es lo que resulta realmente impactante”.

Kate añade: “Trabajé en la campaña y observé los distintos tipos de sitios web de pornografía convencionales. Calculo que, aproximadamente, alrededor del 60 % del contenido es algo que parece no haber sido consensuado. Ya se trate de una mujer que aparece como una niña con un uniforme escolar o fantasías de violación, toda la industria tiene tantas categorías que fantasean con mujeres obligadas a hacer algo con lo que no han dado su consentimiento en diversos grados, y el deepfaking es solo otra manifestación de eso”.

“Si el colega de Dina creyera que podía tener sexo con ella, probablemente no habría solicitado el encargo, pero como quería fantasear con ella de la forma más real posible, pudo hacerlo sin su consentimiento. Y como no existe una ley real al respecto, es una forma perfectamente legal de hacerlo”.

Esto se debe a que ninguna ley del Reino Unido hace referencia directa a la práctica del deepfaking, algo que se describe como una “zona gris”.

Entonces, ¿qué creen Jess y Kate que se puede hacer para detener a los perpetradores?

“Cuando hablamos con Gorkem y el señor DeepFakes, dijeron que si esto fuera ilegal, cumplirían la ley, por lo que eso actuaría como un elemento disuasorio”, explica Jess. “Pero el proyecto de ley de seguridad en línea ya está obsoleto: lleva unos cuatro años intentando aprobarlo en el Parlamento y habla mucho de Facebook, que los jóvenes ya no utilizan. Intentar mantenerse al día con la tecnología y con lo rápido que se desarrolla es simplemente imposible”.

“Si bien ayudaría a las víctimas saber que pueden denunciar sus casos, y con suerte la policía podrá obtener más fondos para abordar a los perpetradores, creo que definitivamente es un problema social”.

“Hay millones de personas que acceden a este contenido y participan activamente en estos foros, y añaden comentarios muy gráficos y sexuales, o colocan a personas que conocen en escenas realmente perturbadoras y luego alientan a otros a enviar estas imágenes a las chicas en Instagram. Están ahí afuera queriendo causar activamente angustia y daño. ¿Por qué hay tantos hombres que piensan que está bien tratar y ver a las mujeres como objetos?”

Kate continúa: “Si queremos avanzar y proteger a las personas de este tipo de delito, debemos examinar el sistema legislativo en nuestro país, porque los sistemas que tenemos establecidos para la tecnología simplemente no son aptos para ese propósito”, dice. “No puede llevar cinco años hacer una revisión y luego actuar al respecto, porque va a quedar obsoleto.

“Desde la perspectiva de un activista y como alguien que ha pasado por esto como víctima, necesitamos regular estas industrias. El hecho de que haya aplicaciones disponibles que sean muy legales, o que los sitios web pornográficos puedan publicar, ver o compartir su contenido sin su consentimiento es un problema enorme. El problema es que los británicos somos tan mojigatos que no queremos tener esa conversación en el Parlamento, pero enterrar la cabeza en la arena obviamente no funciona. Necesitamos reformar el tipo de actitudes que tenemos en torno a ese tipo de sitios web y la violencia sexual y el contenido sexual en línea.

“Se trata de un delito predominantemente masculino contra una mujer, y se está utilizando como una forma de violencia sexual”, añade. “No es una violación física, pero eso no significa que no sea una forma de violencia sexual, que no sea perjudicial solo porque exista en la web”.

A pesar de las horribles amenazas que ha enfrentado, Kate ha decidido continuar con su brillante campaña. Jess también se niega a guardar silencio sobre el tema, a pesar de que también ha recibido comentarios similares en línea.

“Las amenazas te afectan y me han hecho preocuparme por mi seguridad”, dice. “Compruebo mi entorno, cierro la puerta con llave tan pronto como me subo al coche, todo ese tipo de cosas. A veces me ha hecho pensar que ya no quiero hablar más de ello.

‘Sin embargo, aunque obviamente no quiero que me ataquen, espero que el documental dé a más mujeres la confianza para sentir que pueden compartir su experiencia, porque lamentablemente son las víctimas las que tienen que dar la cara para que el gobierno las escuche’.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd