Description: AI 'nudify' apps are being used to generate hyperrealistic non-consensual nude photos of individuals, which are then exploited for extortion and harassment. These apps use generative AI to remove clothing from images and create convincing fakes, often distributed on platforms like Telegram. Victims are threatened or shamed using these AI-generated images, with little recourse for removal or legal action.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por Unknown deepfake creators e implementado por Unknown deepfake creators y Extortionists, perjudicó a Women in India , Women y General public.
Estadísticas de incidentes
ID
782
Cantidad de informes
1
Fecha del Incidente
2024-09-09
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
indiatoday.in · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
translated-es-More than anything else, desperation drove Rishabh towards apps that promised quick loans: easy money only a few clicks away. He was stone broke. He was also under the burden of high-interest loans he had taken earlier. And hi…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.