Description: AI 'nudify' apps are being used to generate hyperrealistic non-consensual nude photos of individuals, which are then exploited for extortion and harassment. These apps use generative AI to remove clothing from images and create convincing fakes, often distributed on platforms like Telegram. Victims are threatened or shamed using these AI-generated images, with little recourse for removal or legal action.
Alleged: Unknown deepfake creators developed an AI system deployed by Unknown deepfake creators と Extortionists, which harmed Women in India , Women と General public.
インシデントのステータス
インシデントID
782
レポート数
1
インシデント発生日
2024-09-09
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
indiatoday.in · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
何よりも、絶望がリシャブを、数回クリックするだけで簡単にお金が手に入るという即金を約束するアプリへと駆り立てた。彼は完全に無一文だった。また、以前に借りた高利のローンの重荷も背負っていた。そして、彼の信用スコアは、ほとんどの銀行で不適格な顧客だった。この悪循環により、彼は わずか 3 万ルピーという金額で、即金個人ローン アプリという濁った水域、つまりヤミ金融だらけの水域へと追いやられた。
リシャブが 2 回の分割払いを滞納したとき、電話での簡潔な警告はすぐに脅迫に変わった。「…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください