Description: Internet Watch Foundation (IWF) has reported that it has found a manual on the dark web that encourages criminals to use "nudifying" AI tools to depict children naked in order to extort victims into providing graphic content.
Alleged: Unknown deepfake creators と Unknown AI developers developed an AI system deployed by Unknown Dark Web users と Unknown deepfake creators, which harmed Children.
インシデントのステータス
インシデントID
784
レポート数
1
インシデント発生日
2024-04-23
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
theguardian.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
児童虐待慈善団体によると、小児性愛者は、より過激な内容を脅迫するために、人工知能を使って子供のヌード画像を作成するよう促されている。
インターネット監視財団(IWF)は、ダークウェブで見つかったマニュアルには、犯罪者に「ヌード化」ツールを使用して子供が送った下着の写真から衣服を取り除くよう促すセクションが含まれていたと述べた。操作された画像は、子供に対してより露骨な内容を送るよう脅迫するために使用される可能性があるとIWFは述べた。
「これは、加害者がこれらの目的でAI技術を…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されま せん。詳細についてはこの研究論文を参照してください