Incidentes Asociados

Una mujer de 30 años dijo que se le "cayó el estómago" cuando vio un vídeo de porno deepfake en el que aparecía su cara.
Kate Isaacs vio el vídeo por primera vez mientras navegaba por Twitter y recordó que "se sintió acalorada" cuando se dio cuenta de que la mujer del vídeo se parecía a ella.
Empezó a hacerse muchas preguntas, entre ellas, dónde se había filmado, si alguien la había filmado sin su consentimiento y quién podría haber publicado el vídeo.
Debido a su ansiedad, al principio no se dio cuenta de que el vídeo no era suyo, sino que su cara había sido superpuesta al cuerpo de una estrella del porno mediante un software deepfake, que manipula digitalmente las imágenes, creando engaños visuales, de audio y de vídeo.
Isaacs dijo que el video falso era "tan convincente" que tardó unos minutos en darse cuenta de que no era ella.
Ella le dijo al Daily Mail: "Cualquiera que me conociera pensaría lo mismo. Fue devastador. Me sentí violada y estaba ahí para que todos lo vieran".
La mujer dijo que nunca descubrió quién hizo el video, pero cree que fue atacada porque anteriormente había hablado sobre el aumento de la "pornografía no consentida".
La activista, que es la fundadora del grupo de campaña Not Your Porn, dijo que el video porno falso de ella, que apareció en 2020, se hizo usando imágenes inocentes tomadas de Internet.
Dijo: "Esto es todo lo que se necesita ahora. Convierte a cada mujer que tiene una imagen de sí misma en línea en una víctima potencial; eso es prácticamente todo el mundo, en estos días".
Los deepfakes se crean utilizando software de inteligencia artificial que puede tomar un video existente y reemplazar la cara de una persona con la de otra, incluso imitando la expresión facial.
La tecnología se ha utilizado para crear algunos videos deepfake de celebridades de tono alegre, pero su uso más común es para videos sexualmente explícitos.
A medida que el software se vuelve más sofisticado, los expertos han advertido que los deepfakes se convertirán en un problema creciente.
Adam Dodge, fundador de EndTAB, un grupo que ofrece formación sobre el abuso a través de la tecnología, dijo a CBS News: "La realidad es que la tecnología seguirá proliferando, seguirá desarrollándose y seguirá siendo tan fácil como pulsar un botón.
"Y mientras eso suceda, la gente, sin duda... seguirá haciendo un mal uso de esa tecnología para dañar a otros, principalmente a través de la violencia sexual en línea, la pornografía deepfake y las imágenes falsas de desnudos".
El problema que experimentó la Sra. Isaacs es, lamentablemente, bastante común, como lo demuestra el ejemplo de Noelle Martin, una mujer de Perth, Australia.
La joven de 28 años encontró pornografía deepfake de ella misma hace 10 años cuando utilizó Google para buscar su nombre.
Dijo que todavía no sabe quién creó las imágenes falsas y cree que alguien tomó una foto publicada en sus redes sociales. medios de comunicación.
A pesar de ponerse en contacto con varios sitios web en un intento de eliminar las imágenes, la ignoraron o vio que las fotos falsas se eliminaban antes de volver a publicarlas en línea.
La Sra. Martin dijo: "No puedes ganar. Esto es algo que siempre estará ahí. Es como si te hubiera arruinado para siempre".
En octubre de 2022, la Sra. Isaacs habló con Sunday People cuando surgieron cifras que mostraban que solo el 3% de los incidentes de pornografía de venganza denunciados a la policía han resultado en cargos.
Compartir fotos o videos sexuales privados de otra persona sin consentimiento se volvió ilegal en 2015, pero de las 23.672 denuncias a la policía sobre el asunto desde entonces, solo 846 resultaron en un cargo.
La Sra. Isaacs dijo: "La ley original de 2015 era laxa y significa que es difícil obtener una condena. Tienes que poder demostrar una intención maliciosa. Además de eso, nadie conoce realmente la ley".
En algunos casos, la "falta de interés público" se citó como razón para no presentar cargos, según una solicitud de Libertad de Información a las 43 fuerzas del Reino Unido. Y no todas respondieron, y la Met estuvo entre las 12 que se negaron.
La Sra. Isaacs dijo: "Me siento mal de que digan que no es de interés público. Es impactante y una clara demostración de lo poco que se toman en serio los derechos de las mujeres y el abuso sexual basado en imágenes".
Natasha Saunders, de 33 años, madre de dos hijos y víctima de abuso doméstico, dijo: "Es horrible. La ley no se está aplicando y no es lo suficientemente buena. Estos son delitos muy reales.
"Cuando estaba con mi abusador, me tomó imágenes. Cuando salga de prisión, tendrá acceso a estas imágenes. Incluso después de que me fui, recibí amenazas. Dijo que compartiría las imágenes con todos los que estaban en mi directorio telefónico. Es necesario que haya una mejor orientación para la policía".
El exmarido de la Sra. Saunders podría salir de prisión en 2025, después de haber sido sentenciado a 12 años en 2018 por tres cargos de violación y uno de agresión sexual.
Puede encontrar esta historia en Mis marcadoresO navegando hasta el ícono de usuario en la parte superior derecha.