Incidentes Asociados
Los fans de Taylor Swift se quedaron horrorizados recientemente después de que circularan en línea imágenes pornográficas deepfake de la cantante, lo que llevó a un grupo de senadores estadounidenses a presentar un proyecto de ley para penalizar la práctica de compartir imágenes sexualizadas generadas por inteligencia artificial (IA) sin consentimiento.
Esto se produce en medio de preocupaciones generalizadas entre las mujeres de muchos ámbitos de la vida sobre los rápidos avances de la IA, en un mundo donde las nuevas leyes aún no se han puesto al día. El 27 de octubre, un portavoz del gobierno del Reino Unido confirmó que el nuevo proyecto de ley sobre seguridad en Internet (https://www.mirror.co.uk/news/politics/new-duties-social-media-firms-28604494) reconoce que la pornografía deepfake es perjudicial y que enviar o compartir esas imágenes se considera un delito penal.
Según este proyecto de ley, que se espera desde hace tiempo, quienes compartan deepfakes explícitos podrían enfrentarse a hasta seis meses de cárcel. Sin embargo, sigue siendo notoriamente difícil determinar las identidades reales de quienes cometen este delito, lo que deja a muchas víctimas traumatizadas en un estado de limbo.
Durante una entrevista con el Mail Online, Kate Isaacs, de 30 años, recordó cómo se le "encogió el estómago" cuando se encontró con un vídeo sexualmente explícito de ella misma mientras navegaba por X, antes conocido como Twitter. El vídeo en cuestión mostraba su rostro superpuesto al cuerpo de otra mujer, que estaba realizando un acto sexual. Kate, que fundó la campaña #NotYourPorn, recordó: "Fue tan convincente que incluso me llevó unos minutos darme cuenta de que no era yo. Cualquiera que me conociera pensaría lo mismo. Fue devastador. Me sentí violada y todo el mundo lo pudo ver".
La investigadora profesional nunca descubrió quién creó el material, pero cree que fue atacada porque anteriormente se había pronunciado en contra del aumento de la "pornografía no consentida". El material, que se compartió en 2020, había tomado imágenes completamente ajenas del rostro de Kate de Internet.
Otra mujer, a la que se hace referencia con el seudónimo de Courtney, se sinceró con Mail Online sobre su horror después de que un extraño convirtiera su selfie común frente al espejo en una foto de desnudo deepfake. Esta persona desconocida, que le envió a Courtney la foto a través de Instagram con un emoji sonriente, había utilizado uno de los muchos sitios web siniestros que "desnudan virtualmente" a las personas en cualquier foto.
Courtney le dijo a la publicación: "No había tenido noticias de esta persona en dos años y me desperté una mañana, el viernes pasado. Me desperté a las 7 a. m. para ir a la universidad, pero recibí esta imagen extremadamente gráfica que definitivamente no era real. La habían sacado de mi Instagram y la habían editado con inteligencia artificial. Estaba en estado de shock. No hay forma de que eso haya sucedido así como así. Pero me di cuenta de la gravedad de la situación más tarde ese mismo día... a quién podrían haberle enviado eso". La aspirante a trabajadora social, que tiene unos 20 años, bloqueó la cuenta y eliminó todas las fotos de ella de las redes sociales. Ahora vive en un estado constante de temor a una violación reiterada.
Durante una entrevista con la i, la política norirlandesa Cara Hunter habló de su angustiosa experiencia después de que se hicieran imágenes pornográficas falsas de ella durante su campaña electoral en abril de 2022. Se enteró del video, en el que parecía estar participando en un acto de sexo oral, mientras asistía al 90 cumpleaños de su abuela. Cara, de 26 años, recordó: "Estaba rodeada de mi familia y mi teléfono solo hacía ding, ding, ding. Y durante las siguientes semanas, continuó así".
El clip se compartió en varias plataformas de redes sociales y Cara incluso sufrió acoso en la calle como resultado. Ella compartió: "Dos días después de que el video comenzara a circular, un hombre me detuvo en la calle cuando caminaba sola y me pidió sexo oral. Sacó el video. Fue horrible, parecía que todos lo creían. La gente se reía, se burlaba y se mofaba de mí en la calle".
Aunque la policía se mostró comprensiva cuando ella denunció el incidente, admitieron que no podían hacer mucho para ayudar, ya que su "equipo cibernético tenía poderes muy limitados". Un informe publicado en 2023 concluyó que ese año se había producido un aumento del 550 por ciento en la cantidad de vídeos deepfake encontrados en Internet en comparación con 2019. El informe, publicado por homesecurityheroes.com, reveló que el 98 por ciento de todos los vídeos deepfake eran de naturaleza pornográfica, mientras que el 99 por ciento de los afectados eran mujeres.
Si ha sido víctima de agresión sexual, puede acceder a ayuda y recursos a través de www.rapecrisis.org.uk o llamando a la línea telefónica nacional de ayuda al 0808 802 9999