フロリダ州マイアミの13歳と14歳の2人のティーンエイジャーが、警察の報告書を引用して、AIで12歳と13歳の男女のクラスメートのヌード画像を作成し、本人の同意なしに共有した疑いで2023年12月22日に逮捕されたとWIREDが報じている。
報告書によると、ティーンエイジャーらは「AIアプリ」を使用して偽の露骨な画像を作成したとされている。報告書ではアプリの名前は言及されていない。
ティーンエイジャーらは、自動車窃盗や不法監禁に相当する第3級重罪の容疑に直面している。この告発は、ディープフェイク画像による嫌がらせを抑制するために2022年にフロリダ州で可決された法律に端を発している。
これまでのところ、告発された少年たちの両親も、担当の捜査官や検察官も、この事件についてコメントしていない。
同様の事件は 米国 や 欧州 でも発覚している。しか し、フロリダの事件は、AI が生成したとされるヌード画像による逮捕と起訴が初めて知られている事件と考えられている。
AI 偽画像に描かれた裸体は、実際の体ではなく、人工知能によって作成されたレプリカである。それでも、これらの画像は本物に見える可能性があり、心理的苦痛や評判の失墜につながる可能性がある。
ホワイトハウスは最近、AI が生成したテイラー・スウィフトのヌード写真 に対して反応を示しました。米国政府は、この事件や同様の事件を「憂慮すべき」と呼び、新しい法律が必要だと述べました。
2023 年 10 月下旬、インターネット ウォッチ財団 (IWF) は、AI 画像ジェネレーターが児童性的虐待素材 (CSAM) の増加にもつながっていると報告しました。
米国の国立行方不明・搾取児童センターは、2023年6月末までにAIが生成した虐待画像が「急増」したと報告した(https://the-decoder.com/ai-generated-child-abuse-images-pose-new-problems-for-investigators/)。これらの画像は捜査を複雑にし、被害者の身元確認を妨げる可能性がある。