Incidentes Asociados
Niños de tan solo 12 años han visto sus rostros superpuestos en cuerpos de niñas desnudas o han sido "desvestidos" por personas que utilizan aplicaciones de generación de deepfakes.
Las aplicaciones utilizan la generación de imágenes con inteligencia artificial para analizar la foto de una persona y luego crear una imagen realista y falsa de desnudo mediante la reconstrucción digital de cómo se vería el cuerpo bajo la ropa.
Deborah Vassallo, coordinadora del proyecto de seguridad en internet "Be Smart Online" de la Fundación para los Servicios de Bienestar Social, afirmó que la organización recibió el primer informe de imágenes de desnudos en deepfakes hace seis meses. Desde entonces, se han dado otros tres casos.
"En un caso, se utilizó la foto de una niña dirigiéndose a sus compañeros de clase en una asamblea para crear una imagen de ella desnuda", explicó Vassallo.
La víctima más joven tenía 12 años y otra ni siquiera 16. Otra chica tenía entre 16 y 18 años y otra tenía 20. Todos los casos, excepto el último, fueron denunciados por los padres de los menores implicados, y la joven de 20 años se presentó ella misma. Todas las víctimas, en edad escolar, asistían a diferentes escuelas públicas y religiosas y provenían de diversas localidades.
"Las imágenes se compartían en aplicaciones de mensajería, como WhatsApp, para humillar a la víctima, o se le enviaban a ella misma mediante un perfil falso para intentar chantajearla", declaró Vassallo.
Añadió que el motivo de la creación y difusión de estas fotos solía ser una venganza tras el fin de una relación o un rechazo.
Señaló que los padres se enfrentaban a un dilema al considerar si denunciar las imágenes a las autoridades.
Si los padres tienen pruebas, les aconsejamos que acudan a la policía, pero a menudo se muestran reacios a denunciar debido a los retrasos sistémicos del sistema judicial y a que no quieren someter a sus hijos al trauma de que la policía les haga preguntas incómodas.
A veces, ni siquiera quieren involucrar a la escuela por la misma razón. En cierto sentido, los niños son víctimas por partida doble: víctimas del delito y víctimas del sistema, afirmó.
También existe el peligro de que las imágenes lleguen a foros de internet frecuentados por pedófilos. Vassallo afirmó que, en su opinión, las personas que compartan imágenes de desnudos generadas por IA deberían ser acusadas bajo las mismas leyes que penalizan la posesión y distribución de material de abuso sexual infantil.
Cuando se trata de hablar con niños sobre imágenes de desnudos ultrafalsos y otros tipos de abuso en línea, Be Smart Online promueve la concienciación y la educación.
No podemos impedir que los niños usen la tecnología. "Si intentamos restringir demasiado el acceso, nunca aprenderán a usarlo responsablemente ni a tener cuidado con lo que comparten", afirmó Vassallo, añadiendo que también se les enseñaron conceptos como el consentimiento y el respeto.
Un caso similar ocurrido en España el año pasado puso de relieve los crecientes riesgos que supone la manipulación de imágenes mediante IA. En la localidad de Almendralejo, más de 20 adolescentes descubrieron que sus fotos habían sido alteradas con una aplicación que genera imágenes falsas de desnudos.
Las fotos fueron generadas y difundidas por compañeros de clase, algunos de los cuales tenían tan solo 14 años. Varias víctimas solo se enteraron después de que sus compañeros comenzaran a comentar o compartir las imágenes en aplicaciones de mensajería.
El caso desató un debate nacional, con padres, educadores y políticos exigiendo una reforma legal urgente. Aunque la policía española abrió una investigación, el hecho de que muchos de los implicados fueran menores de edad puso de manifiesto la brecha existente entre la legislación vigente y el rápido auge de esta tecnología.