Description: Throughout 2024, schools in Australia dealt with a significant rise and proliferation of non-consensual deepfake pornography of students. Often, male students are reported to use "nudify" apps such as Undress AI with images of their classmates and teachers. Many of the sites have remained legal and accessible to minors, who in turn are using the sites to generate pornography of their peers.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por Undress AI y Unknown deepfake technology developers e implementado por Australian students y Unknown deepfake creators, perjudicó a Australian students y Australian children.
Estadísticas de incidentes
ID
798
Cantidad de informes
1
Fecha del Incidente
2024-06-29
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
smh.com.au · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
translated-es-"See anybody nude for free," the website's tagline reads.
"Just paint over the clothes, set age and body type, and get a deepnude in a few seconds."
More than 100,000 people use the "Undress AI" website every day, according to…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.