
児童虐待慈善団体によると、小児性愛者は、より過激な内容を脅迫するために、人工知能を使って子供のヌード画像を作成するよう促されている。
インターネット監視財団(IWF)は、ダークウェブで見つかったマニュアルには、犯罪者に「ヌード化」ツールを使用して子供が送った下着の写真から衣服を取り除くよう促すセクションが 含まれていたと述べた。操作された画像は、子供に対してより露骨な内容を送るよう脅迫するために使用される可能性があるとIWFは述べた。
「これは、加害者がこれらの目的でAI技術を使用するよう互いに助言し、奨励していることを示す初めての証拠です」とIWFは述べた。
オンラインで子供の性的虐待コンテンツを見つけて削除するこの慈善団体は、被害者が操作されて自分の露骨な画像を送信し、金銭を渡さなければその画像を公開すると脅される恐喝事件が増加していると昨年警告した。また、同紙は、AIが「驚くほどリアルな」虐待コンテンツの作成に使用された最初の例も指摘した。
200ページ近くにわたるオンラインマニュアルの匿名の著者は、13歳の少女を「脅迫して」ヌード画像をオンラインで送信させることに成功したと自慢している。IWFは、この文書が英国の国家犯罪庁に渡されたと述べた。
先月、ガーディアン紙は、労働党が、ユーザーが裸の人物画像を作成できるヌード化ツールの禁止を検討中と報じた。
IWFはまた、2023年は「記録上最も過激な年」だったと述べている。年次報告書によると、同組織は昨年、児童性的虐待を含むウェブページを27万5000件以上発見した。これはIWFが記録した中で最も多い数で、レイプ、サディズム、獣姦など最も過激な画像を含む「カテゴリーA」のコンテンツが過去最多だった。IWFによると、カテゴリーAのコンテンツを含むページは6万2000件以上で、