Description: AI 'nudify' apps are being used to generate hyperrealistic non-consensual nude photos of individuals, which are then exploited for extortion and harassment. These apps use generative AI to remove clothing from images and create convincing fakes, often distributed on platforms like Telegram. Victims are threatened or shamed using these AI-generated images, with little recourse for removal or legal action.
Entités
Voir toutes les entitésAlleged: Unknown deepfake creators developed an AI system deployed by Unknown deepfake creators et Extortionists, which harmed Women in India , Women et General public.
Statistiques d'incidents
ID
782
Nombre de rapports
1
Date de l'incident
2024-09-09
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
indiatoday.in · 2024
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Plus que tout, le désespoir a poussé Rishabh à se tourner vers des applications qui promettaient des prêts rapides : de l’argent facile en quelques clics. Il était complètement fauché. Il était également sous le fardeau des prêts à taux d’i…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.