学校は、生徒が人工知能を使ってクラスメートの無邪気な画像を性的に露骨なディープフェイク画像に変換するという、ますます深刻な問題に直面しています。
加工された写真や動画の拡散による影響は、被害者にとって悪夢となる可能性があります。
学校にとってのこの課題は、AIが生成したヌード画像が今秋、ルイジアナ州の中学校で猛威を振るったことで浮き彫りになりました。最終的に2人の男子生徒が起訴されましたが、その前に被害者の1人が、自分と友人の画像を作成したと非難した男子生徒と喧嘩を始めたことで退学処分を受けています。
「画像改変技術は何十年も前から存在していま したが、AIの台頭により、ほとんど訓練や経験がなくても、誰でも簡単にそのような画像を改変または作成できるようになりました」と、ラフォーシュ郡保安官クレイグ・ウェブレ氏は報道発表で述べています。「この事件は、すべての親が子供たちと話し合うべき深刻な懸念を浮き彫りにしています。」
AI生成ヌード画像の増加と学校の対応に関するAP通信の記事から、主なポイントをご紹介します。
ディープフェイク対策の法律を可決する州が増加
ルイジアナ州の中学校で発生したディープフェイク問題に端を発する訴追は、州の新法に基づく初の事例とみられると、この法案を起草した共和党の州上院議員パトリック・コニック氏は述べています。
この法律は、ディープフェイクを標的とした全国的な法律の一つです。全米州議会会議によると、2025年には少なくとも半数の州が、一見リアルだが捏造された画像や音声を作成するための生成AIの利用に関する法律を制定する制定が施行される見込みです。これらの法律の中には、児童性的虐待の模擬コンテンツに関するものもあります。
フロリダ州とペンシルベニア州でも生徒が起訴され、カリフォルニア州などの州では退学処分を受けています。テキサス州の小学5年生教師も、AIを使って生徒の児童ポルノを作成したとして起訴されました。
ディープフェイクは、技術の 進化に伴い作成が容易になっています
ディープフェイクは、政敵や若手スターを辱める手段として始まりました。テキサス・クリスチャン大学の研究員で、この問題について執筆活動を行っているセルジオ・アレクサンダー氏は、ここ数年までは、リアルなディープフェイクを作るにはある程度の技術的スキルが必要だったと述べている。
「今ではアプリで作ったり、ソーシャルメディアからダウンロードしたりでき、技術的な専門知識は全く必要ありません」とアレクサンダー氏は述べた。
アレクサンダー氏は、この問題の規模は驚異的だと説明した。国立行方不明・被搾取児童センターによると、同センターのサイバー通報窓口に報告されたAI生成の児童性的虐待画像の数は、2023年の4,700件から2025年の最初の6か月間で44万件に急増したという。
専門家は、学校の対策が不十分だと懸念している
サイバーいじめ研究センターの共同ディレクターであるサミール・ヒンドゥジャ氏は、学校に対し、AI生成のディープフェイクに関するポリシーを見直し、より的確な説明を行うよう勧告している。そうすれば、「生徒たちは教職員や教育者が全く気づいていないと勘違いし、罰せられずに済むと思い込むことがなくなる」と彼は述べた。
多くの親は、学校が問題に取り組んでいると思い込んでいるが、実際にはそうではないと彼は述べた。
フロリダ・アトランティック大学犯罪学・刑事司法学部の教授でもあるヒンドゥジャ氏は、「多くの親は、あまりにも無知で、あまりにも無知なのです」と述べた。「ダチョウ症候群という言葉を耳にしますが、ただ目を背け、自分たちの 子供たちにはこんなことが起きていないことを願っているだけです」
AIディープフェイクによるトラウマは特に有害になり得る
AIディープフェイクは、悪意のあるテキストや噂ではなく、しばしば拡散し、何度も再浮上することでトラウマの連鎖を引き起こすという点で、従来のいじめとは異なります、とアレクサンダー氏は述べた。
多くの被害者は、うつ状態や不安に陥ると彼は述べた。
「まるで100%本物に見えるから、まるでこれが本物ではないと証明することすらできないかのように感じられて、彼らは文字通り黙り込んでしまうんです」と彼は言った。
保護者は生徒と話し合うことを奨励されています
アレクサンダー氏によると、保護者は子どもたちに、ネット上で面白いフェイク動画を見たことがあるか、さりげなく尋ねることから会話を始めることができるという。
ビッグフットがハイカーを追いかける動画など、いくつか見て笑ってみてください、と彼は言った。そこから、保護者は子どもたちに「もし自分がこの動画、面白い動画でも、どんな風に映っていたら、どんな感じか考えたことある?」と尋ねることができる。そして、たとえ無害なものでも、クラスメートがフェイク動画を作ったことがあるかどうか、聞いてみるのもいいだろう。
「この数字を見ると、きっと誰か知り合いがいると言うでしょう」と彼は言った。
子どもたちがディープフェイクのようなコンテンツに遭遇した場合、親に相談しても問題にならないことを知っておく必要があると、責任あるソーシャルメディアの利用方法を啓発し、学校のポリシー策定を支援してきたThe Social Instituteの創設者兼CEO、ローラ・ティアニー氏は述べています。ティアニー氏によると、多くの子どもたちは親が過剰反応したり、携帯電話を取り上げたりするのではないかと恐れているといいます。
ティアニー氏は、対応策のロードマップとして「SHIELD」という頭文字を使っています。「S」は「停止」、転送しないことを意味しています。「H」は信頼できる大人と「話し合う」ことを意味し、「I」は画像が投稿されているソーシャルメディアプラットフォームに「知らせる」ことを意味します。「E」は、誰が画像を拡散しているかなどの「証拠」を集めるための合図であり、ダウンロードを促してはいけません。「L」はソーシャルメディアへのアクセスを「制限する」ことを意味します。「D」は、被害者に助けを求めるよう「指示する」ためのリマインダーです。
「この頭文字が6つのステップであるという事実は、この問題が本当に複雑であることを示していると思います」と彼女は語った。