ディープフェイクを生成するアプリを使う人々によって、12歳ほどの子供たちの顔が裸の少女の体に重ねられたり、「服を脱がされた」りしたことがある。
このアプリは、AIによる画像生成を使用して人物の写真を分析し、衣服の下の体がどのようなものかデジタルで再現することで、リアルな偽の裸画像を作成する。
社会福祉サービス財団のBe Smart Onlineインターネット安全プロジェクトのコーディネーター、デボラ・ヴァサロ氏は、同団体がディープフェイクの裸画像に関する最初の報告を受けたのは6か月前だと語った。それ以来、さらに3件の事例がある。
「ある事例では、集会で学校の友達に話しかけている少女の写真が、彼女の裸画像を作成するために使用されました」とヴァサロ氏は語った。
最年少の被害者は12歳で、もう1人も16歳にもなっていなかっ た。もう1人の少女は16歳から18歳、もう1人は20歳だった。最後の1件を除くすべての事件は、関係する子供たちの両親によって報告され、20歳の少女は自ら名乗り出た。学齢期の被害者は全員、異なる公立学校や教会系の学校に通い、さまざまな地域から来ていた。
「画像は被害者を辱めるためにWhatsAppなどのメッセージングアプリで共有されたか、偽のプロフィールで被害者本人に送られ、脅迫しようとした」とヴァッサロ氏は述べた。
彼女は、このような写真の作成と拡散の背後にある動機は、関係の終わりや拒絶に対する復讐行為である場合が多いと付け加えた。
彼女は、両親は当局に画像を報告するかどうかを検討する際にジレンマに直面したと指摘した。
「親が証拠を持っている場合、警察に行くようアドバイスしますが、司法制度のシステム的な遅れや、警察から不快な質問をされるというトラウマを子供に負わせたくないという理由で、報告をためらうことが多いのです。
「同じ理由で、学校を巻き込むことさえ嫌がることもあります。ある意味、子供は二重の被害者です。犯罪の被害者であり、制度の被害者でもあるのです」と彼女は語った。
また、画像が小児性愛者がよく利用するインターネットフォーラムに流れてしまう危険性もある。バサロ氏は、AIで生成された裸の画像を共有しているのが見つかった人は、児童性的虐待資料の所持や配布を犯罪とするのと同じ法律で起訴されるべきだと信じていると語った。
ディープフェイクの裸の画像やその他のオンライン虐待について子供と話し合うことに関しては、Be Smart Onlineは意識向上と教育を提唱している。
「子供たちがテクノロジーを使うのを止めることはできません。 「アクセスを制限しすぎると、子どもたちは責任を持って使用し、共有するものに注意する方法を決して学ばないでしょう」とヴァッサロ氏は述べ、同意や尊重などの概念も教えられたと付け加えた。
昨年スペインで起きた同様の事件は、AIによる画像操作がもたらすリスクの高まりを浮き彫りにした。アルメンドラレホの町では、20人以上の10代の少女が、偽の裸画像を生成するアプリを使って自分の写真が改変されていることに気付いた。
写真はクラスメートによって生成され、配布されたが、その中には14歳の少女もいた。被害者の何人かは、仲間がコメントしたり、メッセージアプリで画像を共有したりし始めてから初めて気付いた。
この事件は全国的な議論を引き起こし、親、教育者、政治家は緊急の法的改革を求めた。スペイン警察は捜査を開始したが、関係者の多くが刑事責任年齢に達していなかったという事実は、施行されている法律とこのような技術の急速な普及との間のギャップを浮き彫りにした。