Incidentes Asociados

Almendralejo, en el sur de España, se convirtió en uno de los primeros ejemplos globales de cuán alarmante puede ser el acoso sexual con la tecnología AI Deepfake.
Era un domingo tranquilo cuando la periodista Marian Rosado navegaba en su cuenta de Instagram y de repente se topó con una inusual transmisión en vivo de Instagram.
La conocida ginecóloga Miriam Al Adib desvelaba una situación muy personal y impactante: su hija de 14 años acaba de contarle que alguien utilizó una aplicación para tomarle una foto de las redes sociales y la hizo parecer desnuda.
Este es solo el comienzo de un escándalo que puso en el punto de mira a un tranquilo pueblo del sur de España.
Durante los próximos tres episodios, el equipo de Euronews Tech Talks profundizará en el mundo de la tecnología AI Deepfake.
Nuestro objetivo es descubrir su alcance, abordar estrategias para mitigar sus riesgos y explorar métodos para educar a la sociedad para que reconozca los peligros y se proteja.
El impacto de los desnudos falsos de IA
Almendralejo, una tranquila ciudad con 35.000 residentes ubicada en la región española de Extremadura, cerca de la frontera portuguesa, no es el tipo de lugar que normalmente capta la atención nacional, y mucho menos la internacional.
Sin embargo, en septiembre, justo después de las vacaciones escolares, [Almendralejo fue noticia](https://www.euronews.com/next/2023/09/24/spanish-teens-received-deepfake-ai-nudes -de-sí mismos-pero-es-un-delito).
Docenas de adolescentes locales informaron haber recibido imágenes de ellos mismos desnudos generadas por IA en sus teléfonos móviles.
En las fotos reales, los adolescentes estaban completamente vestidos. Estas imágenes, robadas de sus cuentas de Instagram, fueron alteradas mediante una aplicación de inteligencia artificial (IA) y luego circularon en grupos de WhatsApp.
A pesar del carácter artificial de los desnudos, la angustia que sintieron las niñas al ver estas imágenes fue muy real, según relataron sus madres.
Lo que se suma a la naturaleza inquietante de esta historia es que los perpetradores de este acoso sexual también eran adolescentes conocidos de las niñas.
'Desnuda cualquier imagen con IA gratis'
Igualmente inquietante es la facilidad con la que se crearon estas imágenes.
Los deepfakes, una forma de medio sintético que utiliza inteligencia artificial, suelen implicar procesos complejos como el aprendizaje profundo.
Sin embargo, estos adolescentes no eran expertos en IA. Simplemente pagaron 10 euros para obtener 25 imágenes hiperrealistas de desnudos de sus compañeros utilizando la aplicación Clothoff.
Disponible para descarga gratuita, la aplicación permite a los usuarios desnudar digitalmente a cualquier persona en la galería de imágenes de su teléfono con el lema "Desnude cualquier imagen con IA de forma gratuita".
Cuando se le pidió que aclarara sus reglas, Clothoff enfatizó la verificación de la edad y la obtención del consentimiento.
Si bien afirmaron que se tomaban en serio la verificación de la edad, no revelaron sus métodos por "razones de seguridad".
En cuanto al consentimiento, afirmaron tener políticas estrictas pero no las especificaron, confiando en que los usuarios sigan las pautas.
Un estudio de Sensity AI reveló que el 96 por ciento de las imágenes deepfake consisten en imágenes sexualmente explícitas de mujeres sin su consentimiento.
Un informe de Europol estima que dentro de tres años, aproximadamente el 90% del contenido en línea podrá ser generado por IA.