Description: AI 'nudify' apps are being used to generate hyperrealistic non-consensual nude photos of individuals, which are then exploited for extortion and harassment. These apps use generative AI to remove clothing from images and create convincing fakes, often distributed on platforms like Telegram. Victims are threatened or shamed using these AI-generated images, with little recourse for removal or legal action.
Entités
Voir toutes les entitésPrésumé : un système d'IA développé par Unknown deepfake creators et mis en œuvre par Unknown deepfake creators and Extortionists, endommagé Women in India , Women and General public.
Statistiques d'incidents
ID
782
Nombre de rapports
1
Date de l'incident
2024-09-09
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
indiatoday.in · 2024
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
translated-fr-More than anything else, desperation drove Rishabh towards apps that promised quick loans: easy money only a few clicks away. He was stone broke. He was also under the burden of high-interest loans he had taken earlier. And hi…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.