Description: Internet Watch Foundation (IWF) has reported that it has found a manual on the dark web that encourages criminals to use "nudifying" AI tools to depict children naked in order to extort victims into providing graphic content.
推定: Unknown deepfake creators と Unknown AI developersが開発し、Unknown Dark Web users と Unknown deepfake creatorsが提供したAIシステムで、Childrenに影響を与えた
インシデントのステータス
インシデントID
784
レポート数
1
インシデント発生日
2024-04-23
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
theguardian.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
translated-ja-Paedophiles are being urged to use artificial intelligence to create nude images of children to extort more extreme material from them, according to a child abuse charity.
The Internet Watch Foundation (IWF) said a manual foun…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください