Incidentes Asociados
"Vea a cualquier persona desnuda gratis", dice el lema del sitio web.
"Simplemente pinte sobre la ropa, indique la edad y el tipo de cuerpo y obtenga un desnudo profundo en unos segundos".
Más de 100.000 personas utilizan el sitio web "Undress AI" todos los días, según su empresa matriz. Los usuarios suben una foto, eligen entre configuraciones de imagen como "desnudo", "BDSM" o "sexo", y entre opciones de edad que incluyen "restar cinco", que utiliza inteligencia artificial para hacer que el sujeto parezca cinco años más joven.
El resultado es una imagen "desnuda profunda" generada automáticamente de forma gratuita en menos de 30 segundos.
Undress AI es legal actualmente en Australia, al igual que docenas de otras. Pero muchas no tienen controles adecuados que les impidan generar imágenes de niños.
Más de 100.000 personas utilizan el sitio web "Undress AI" todos los días, según afirma su empresa matriz, incluidos australianos.
Hay evidencia de que los pedófilos están usando estas aplicaciones para crear y compartir material de abuso sexual infantil, y las herramientas también están encontrando su camino en las escuelas, incluida la Bacchus Marsh Grammar en Melbourne, donde se realizó un arresto a principios de este mes.
El uso de la tecnología para crear imágenes pornográficas falsas realistas, incluso de niños, no es nuevo. Los perpetradores han podido usar durante mucho tiempo software de edición de imágenes como Photoshop para pegar la cara de un niño en el cuerpo de un actor porno.
Lo que es nuevo es que lo que solía requerir horas de trabajo manual, junto con una computadora de escritorio y cierta habilidad técnica, ahora se puede hacer en segundos gracias al poder y la eficiencia de la IA.
Estas aplicaciones, fácilmente disponibles para los usuarios australianos a través de una rápida búsqueda en Google, facilitan que cualquiera pueda crear una imagen desnuda de un niño sin su conocimiento o consentimiento. Y su popularidad está aumentando: la empresa de análisis de tráfico web Similarweb ha descubierto que reciben más de 20 millones de visitantes cada mes en todo el mundo.
Las aplicaciones de "desnudez profunda" como Undress AI están entrenadas con imágenes reales y datos extraídos de Internet.
Las herramientas se pueden utilizar con fines legítimos (las industrias de la moda y el entretenimiento pueden utilizarlas en lugar de modelos humanos, por ejemplo), pero los reguladores y educadores australianos están cada vez más preocupados por su uso en las manos equivocadas, en particular cuando hay niños involucrados.
La empresa matriz de Undress AI no respondió a las solicitudes de entrevista.
Las escuelas y las familias (así como los gobiernos y los reguladores) están lidiando con el lado oscuro de las nuevas tecnologías de inteligencia artificial.
Julie Inman Grant, comisionada de seguridad electrónica de Australia, es la persona responsable de mantener a todos los australianos, incluidos los niños, a salvo de los daños en línea.
Si Inman Grant se sale con la suya, herramientas como Undress AI se desconectarán o se "eliminarán de la plataforma" si no logran prevenir adecuadamente la producción de pornografía infantil.
Este mes, presentó nuevas normas que, en parte, abordarán específicamente los sitios web que se pueden utilizar para generar material de abuso sexual infantil. Está previsto que entren en vigor en seis meses, después de un período de prohibición de 15 días en el parlamento.
"La rápida aceleración y proliferación de estas tecnologías de inteligencia artificial realmente poderosas es bastante asombrosa. No se necesitan miles de imágenes de la persona ni grandes cantidades de potencia informática... Se pueden simplemente extraer imágenes de las redes sociales y decirle a la aplicación una edad y un tipo de cuerpo, y escupe una imagen en unos pocos segundos", dijo Inman Grant.
"Siento que esto es solo la punta del iceberg, dada la potencia y la accesibilidad de estas aplicaciones. Y no creo que ninguno de nosotros pudiera haber previsto la rapidez con la que han proliferado.
"Hay literalmente miles de este tipo de aplicaciones".
Inman Grant dijo que los abusos basados en imágenes, incluidos los desnudos falsos generados por IA, se denunciaban con frecuencia en su oficina. Dijo que aproximadamente el 85 por ciento de las imágenes y videos íntimos denunciados se eliminaron con éxito.
"Todos los niveles de gobierno se están tomando esto en serio y habrá repercusiones para las plataformas y para las personas que generan este material".
'Casi vomité cuando lo vi'
El problema se convirtió en una oscura realidad para los estudiantes y sus padres en junio, cuando un adolescente de Bacchus Marsh Grammar fue arrestado por crear imágenes de desnudos de alrededor de 50 de sus compañeros de clase utilizando una herramienta impulsada por IA y luego hacerlas circular a través de Instagram y Snapchat.
Emily, madre de uno de los estudiantes de la escuela, es terapeuta de trauma y le dijo a ABC Radio que vio las fotos Emily se encontraba en el auto recogiendo a su hija de 16 años de una fiesta de pijamas.
Tenía un balde en el auto para su hija, que estaba "mal del estómago" mientras conducía a casa.
"Estaba muy alterada y vomitaba. Fue increíblemente gráfico", dijo Emily.
"Quiero decir, son niñas... Las fotos estaban mutiladas y eran muy gráficas. Casi vomité cuando lo vi.
"Cincuenta chicas es mucho. Es realmente perturbador".
Bacchus Marsh Grammar llegó a los titulares por imágenes pornográficas, pero la activista Melinda Tankard Reist dice que el problema está muy extendido.
Según Emily, las cuentas de Instagram de las víctimas estaban configuradas como privadas, pero eso no impidió que el perpetrador generara las imágenes de desnudos.
"Existe esa sensación de... ¿volverá a suceder esto? Es muy traumatizante. ¿Cómo podemos asegurarles que una vez que se tomen medidas, no volverá a suceder?"
Una portavoz de la policía de Victoria dijo que aún no se han presentado cargos y que hay una investigación en curso.
La activista Melinda Tankard Reist lidera Collective Shout, el grupo de campaña que lucha contra la explotación de mujeres y niñas. Se ha reunido con niñas a las que se les han impuesto sus rostros en imágenes explícitas.
Tankard Reist dijo que las niñas en las escuelas de todo el país estaban siendo traumatizadas como resultado de que los niños "se convirtieran en productores de pornografía autoproclamados".
"Usamos el término deepfakes, pero creo que eso disfraza el hecho de que se trata de una niña real cuyo rostro ha sido extraído de sus perfiles de redes sociales y superpuesto a un cuerpo desnudo", dijo. "Y no tienes que ir a la red oscura o algún tipo de lugar secreto, todo está ahí, en la corriente principal.
"Estoy en las escuelas todo el tiempo, en todo el país, y algunas escuelas han recibido la atención de los medios, pero esto está sucediendo en todas partes".
El incidente de Bacchus Marsh Grammar se produjo después de que otro estudiante victoriano, del Salesian College de Melbourne, fuera expulsado tras utilizar un software impulsado por IA para hacer "desnudos profundos" de una de sus profesoras.
Un vacío en la ley
En Australia, la ley está poniendo al día el problema.
Hasta ahora, solo existían leyes específicas sobre pornografía deepfake con IA en Victoria, donde el uso de IA para generar y distribuir deepfakes sexualizados se volvió ilegal en 2022.
Este mes, el gobierno federal presentó una legislación para prohibir la creación y el intercambio de pornografía deepfake, que actualmente está siendo debatida por el parlamento. Los infractores se enfrentarán a penas de cárcel de hasta seis años por transmitir material sexualmente explícito sin consentimiento, y un año adicional si crearon el deepfake.
La legislación se aplicará al material sexual que muestre a adultos, y el material de abuso infantil ya está contemplado en el código penal de Australia, según el fiscal general Mark Dreyfus. Las imágenes generadas por inteligencia artificial ya son ilegales si muestran a una persona menor de 18 años de manera sexualizada, dijo.
"En su gran mayoría, son mujeres y niñas las que son el objetivo de este comportamiento ofensivo y degradante. Y es una preocupación creciente, ya que las tecnologías nuevas y emergentes facilitan que se produzcan abusos como este", dijo Dreyfus.
"Llevamos esta legislación al parlamento para responder a una laguna en la ley. Los delitos penales existentes no cubren adecuadamente los casos en los que se comparte material sexual falso para adultos en línea sin consentimiento".
El gobierno federal también ha presentado una revisión independiente de la Ley de Seguridad en Línea para garantizar que sea adecuada para su propósito.
Noelle Martin es abogada e investigadora y, a los 18 años, fue el objetivo de depredadores sexuales que fabricaron y compartieron imágenes pornográficas falsas de ella sin su consentimiento.
Para Martin, cuanto más joven es la víctima-sobreviviente, peor es el daño.
"El daño que sufren las víctimas sobrevivientes de material íntimo inventado es tan severo como si el material íntimo fuera real, y las consecuencias de ambos pueden ser letales", dijo.
"Para las adolescentes en particular, experimentar esta forma de abuso puede hacer que les resulte más difícil desenvolverse en la vida diaria, la escuela y entrar en el mercado laboral".
Este abuso "podría privar a las víctimas de alcanzar su máximo potencial y potencialmente descarrilar sus esperanzas y sueños", dijo Martin.
Martin quiere que todas las partes en el proceso de deepfake rindan cuentas por facilitar el abuso, incluidos los sitios de redes sociales que anuncian a los proveedores de deepfake, Google y otros motores de búsqueda que dirigen el tráfico hacia ellos, y los proveedores de tarjetas de crédito que facilitan sus transacciones financieras.
"En última instancia, las leyes son solo una parte de la lucha contra este problema", dijo. "También necesitamos una mejor educación en las escuelas para prevenir estos abusos, servicios de apoyo especializados para las víctimas y medios sólidos para eliminar este material una vez que se ha distribuido en línea.
"Pero los países, los gobiernos, las fuerzas del orden, los reguladores y las plataformas digitales deberán cooperar y coordinarse para abordar este problema. Si no lo hacemos, el problema sólo empeorará".