Incidentes Asociados

Más que cualquier otra cosa, la desesperación llevó a Rishabh a recurrir a aplicaciones que prometían préstamos rápidos: dinero fácil a sólo unos clics de distancia. Estaba en la ruina. Además, tenía que soportar la carga de préstamos con intereses altos que había solicitado anteriormente. Y su calificación crediticia lo convertía en un cliente no apto para la mayoría de los bancos. Este círculo vicioso lo empujó a las turbias aguas de las aplicaciones de préstamos personales instantáneos (aguas llenas de usureros) por una miserable suma de 30.000 rupias.
Cuando Rishabh incumplió dos cuotas mensuales, las breves advertencias en las llamadas telefónicas pronto se convirtieron en amenazas amenazantes. "No te puedes ni imaginar lo que haremos si no desembolsas el dinero para mañana", le advirtió por teléfono el secuaz del prestamista. El día siguiente llegó y él no era más rico. Obviamente, no podía pagar.
La verdadera pesadilla comenzó después de eso.
La tarde siguiente, mientras Rishabh llamaba a un amigo para ver qué opciones tenía, su esposa Shefali irrumpió en la habitación, con lágrimas en el rostro y miedo y angustia en los ojos. Alguien le había enviado una foto de ella desnuda.
Nunca había tomado una foto así, pero parecía increíblemente real, hasta los pendientes y el collar que todavía llevaba puestos. Antes de que pudieran procesar lo que había sucedido, recibieron cuatro llamadas más de amigos y familiares. Todos habían recibido la misma foto de Shefali desnuda.
Los usureros pueden llegar a cualquier extremo para obtener su parte, explicó Prabesh Choudhary, experto en seguridad cibernética con sede en Delhi. "Rishabh estaba demasiado nervioso y avergonzado para ir a la policía. Entonces, su amigo le aconsejó que viniera a verme en busca de ayuda", dijo Choudhary.
Choudhary, que ha tenido experiencia en varios casos similares, dijo a India Today: "Lo que la gente no sabe es que en el momento en que descargas estas aplicaciones de préstamos, obtienen acceso a la galería de tu teléfono. A través de esto, las empresas se apoderan de las fotos de tu dispositivo. Después de eso, con solo unos pocos clics, pueden desnudar a cualquier mujer de tu familia para chantajearte".
La creación de desnudos falsos no consentidos no es un fenómeno nuevo. Pero la inteligencia artificial (IA) lo ha hecho infinitamente más fácil. Tanto es así que incluso los adolescentes en edad escolar lo están haciendo ahora. Una encuesta reciente en los EE. UU. realizada por la organización sin fines de lucro contra el abuso sexual infantil Thorn descubrió que uno de cada 10 menores conoce a compañeros que crearon desnudos falsos.
La India no es inmune a este fenómeno. En mayo de este año, un adolescente de Bengaluru compartió en Instagram fotos de desnudos generados por inteligencia artificial de su compañera de noveno grado (https://www.hindustantimes.com/cities/bengaluru-news/aimorphed-naked-pics-of-class-9-bengaluru-girl-surface-on-instagram-report-101716693455461.html). Más tarde, él y otras dos personas (otra menor y un adulto) fueron arrestados (https://www.etvbharat.com/en/!state/three- including-two-minors-held-for-posting-morphed-pictures-of-school-girl-on-social-media-enn24052902498).
"Fue una etapa bastante difícil para mi hija. Uno de los chicos estaba enamorado de ella y probablemente fue él quien compartió desnudos falsos de mi hija en un grupo de chicos de Instagram, con la esperanza de que otro chico de su clase se viera implicado", dijo la madre de la víctima a India Today.
TELEGRAM: LA RED OSCURA DE LA WEB ABIERTA
Los esfuerzos de las grandes tecnológicas por frenar estas aplicaciones y herramientas no han tenido mucho éxito. TikTok y Meta bloquearon la palabra clave "desnudarse" el año pasado para reducir el acceso a dichos servicios. Google también eliminó ciertos anuncios de herramientas similares.
Pero en las tierras baldías de Telegram, conocida por ser una aplicación notoriamente indulgente plagada de desinformación, radicalismo, tráfico de estupefacientes e incluso pornografía infantil, las aplicaciones de "desnudez" prosperan en diversas formas.
Según Telemetrio, un motor de búsqueda y plataforma de análisis de Telegram, la palabra clave "desvestirse" se utilizó más de 2.800 veces entre el 30 de agosto y el 5 de septiembre solo en la India.
Cientos de canales en Telegram ofrecen servicios de "desnudez" que incluso permiten alterar el tamaño y la forma de los senos y el trasero de las mujeres. Estamos reteniendo deliberadamente los nombres de estos canales y aplicaciones para evitar su mayor promoción.
Algunas incluso permiten vestir a las personas con ropa sugerente, como camisetas mojadas, bikinis y lencería. Todo lo que necesitas hacer es subir la fotografía de una mujer y seguir algunas instrucciones básicas. Algunos canales de Telegram llevan a sitios web con plantillas ya preparadas. Sube la foto de cualquier persona y su rostro se superpondrá en clips pornográficos cortos.
Los canales de Telegram como estos a menudo ofrecen sugerencias sobre cómo las personas pueden usar sus herramientas. Un anuncio inquietante de una herramienta de este tipo alentaba a las personas a fotografiar a víctimas desprevenidas en el metro y luego "desnudarlas". Otra herramienta planteaba la pregunta: "¿Por qué perder el tiempo tratando de impresionar a una chica cuando puedes desvestirla fácilmente usando nuestros servicios?".
Estos canales también publican imágenes de actrices populares, animándote a "desvestirlas". Famosamente, la actriz de 'Animal' Rashmika Mandanna fue víctima de algo similar. El ícono del pop global [el video generado por IA de Taylor Swift] nudes](https://www.indiatoday.in/music/story/taylor-swift-explicit-ai-pics-go-viral-angry-fans-question-misuse-of-deepfake-2493867-2024-01-26) también generó una gran controversia a principios de este año.
Muchos canales ofrecen estos servicios en un modelo freemium: créditos gratuitos seguidos de cargos. Otros te permiten pagar con tu tarjeta de crédito, con paquetes de "desnudez" que oscilan entre Rs 199 y Rs 19,999.
LA CIENCIA DE 'DESNUDARSE'
Según Sam Gregory, director ejecutivo de Witness, una organización que promueve el uso ético de la IA generativa, "desnudar" es un término engañoso para lo que realmente hacen estas aplicaciones y herramientas. Explicó que estas herramientas utilizan modelos de IA generativa entrenados con datos extensos de cuerpos identificados como femeninos, tanto vestidos como desnudos.
Cuando subes una foto, el algoritmo identifica las áreas cubiertas con ropa y las borra. Después, reemplaza esas áreas con píxeles que coinciden con el tono de piel, la iluminación, las sombras y los contornos de la foto original utilizando una técnica de IA generativa llamada inpainting.
Estas herramientas están diseñadas para complacer la fantasía masculina. Por lo tanto, incluso si subes la imagen de una persona identificada como masculina, la versión desnuda contendrá rasgos femeninos. Algunas de estas herramientas incluso advierten a las personas que no suban fotos de hombres o animales.
Decidimos probar esto y subimos una foto de un hombre generada por IA. Como era de esperar, agregó pechos al cuerpo. Cuando le dimos una imagen generada por IA de un hombre con cabeza de conejo, el resultado fue una mujer desnuda con rostro humano que de alguna manera conservaba los bigotes del conejo.
¿QUÉ PUEDEN HACER LAS VÍCTIMAS?
Google recientemente hizo que sea un poco más fácil eliminar imágenes o videos de desnudos no consensuados de sus resultados de búsqueda. Las víctimas pueden solicitar a Google que los elimine completando un formulario en línea.
Los expertos recomiendan que las víctimas deberían intentar documentar cada instancia de abuso basado en imágenes de IA a través de capturas de pantalla o archivos de imágenes y videos guardados. Estos archivos pueden usarse más tarde en solicitudes de eliminación y acciones legales.
Según Sam Gregory, algunas plataformas tecnológicas y motores de búsqueda cotejan las imágenes sexuales no consentidas que se les han notificado y eliminan las duplicadas. Sin embargo, esto solo se aplica a plataformas específicas y no impedirá la circulación en aplicaciones de mensajería privada.
"En la práctica, es muy difícil eliminar todos los desnudos falsos. Y, por lo general, el daño ya está hecho cuando se eliminan, si es que se eliminan", dijo.
(Los nombres de las víctimas han sido cambiados)