Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4091

関連インシデント

インシデント 7981 Report
Australian Schools Grappling with Significant Spread of Non-Consensual Spread of Deepfake Pornography of Students

Loading...
オーストラリアの学校に侵入するAI「ディープヌード」アプリの内部
smh.com.au · 2024

「無料で誰でもヌードが見れます」と、このウェブサイトのキャッチフレーズは言う。

「服を塗りつぶし、年齢と体型を設定するだけで、数秒でディープヌードが完成します。」

親会社によると、毎日10万人以上が「Undress AI」ウェブサイトを利用している。ユーザーは写真をアップロードし、「ヌード」、「BDSM」、「セックス」などの写真設定や、「5歳引き算」などの年齢オプションから選択する。年齢オプションには、AIを使用して被写体を5歳若く見せる「5歳引き算」が含まれる。

その結果、30秒以内に無料で自動的に生成される「ディープヌード」画像が完成する。

オーストラリアでは、Undress AIは現在、他の数十のサイトと同様に合法である。しかし、その多くは、子供の画像を生成するのを防ぐ適切な管理を行っていない。

親会社によると、オーストラリア人を含め、毎日10万人以上が「Undress AI」ウェブサイトを利用しているという。

小児性愛者がこうしたアプリを使って児童性的虐待の資料を作成、共有している証拠があり、こうしたツールは学校にも浸透しつつある。その中には今月初めに逮捕者が出たメルボルンのバッカス・マーシュ・グラマー校も含まれる。

テクノロジーを使って、子供を含むリアルな偽ポルノ画像を作成することは目新しいことではない。犯人は以前から、Photoshopなどの画像編集ソフトを使って、ポルノ俳優の体に子供の顔を貼り付けることができていた。

新しいのは、デスクトップパソコンとある程度の技術力に加えて、何時間も手作業で行っていた作業が、AIのパワーと効率性のおかげで数秒でできるようになったことだ。

オーストラリアのユーザーは、Googleで簡単に検索すればこうしたアプリを簡単に入手できるが、これを使えば、子供の知らないうちに、あるいは同意なしに、誰でも子供の裸の画像を簡単に作成できる。そして、その人気は急上昇している。ウェブトラフィック分析会社 Similarweb によると、これらのアプリには毎月世界中で 2,000 万人以上の訪問者がいる。

Undress AI のような「ディープヌード」アプリは、インターネット全体から収集した実際の画像とデータでトレーニングされている。

これらのツールは正当な目的に使用できる (たとえば、ファッション業界やエンターテインメント業界は、人間のモデルの代わりに使用できる) が、オーストラリアの規制当局や教育者は、特に子供が関係する場合、悪意のある人の手による使用をますます懸念している。

Undress AI の親会社は、インタビューの要請には応じなかった。

学校や家族、そして政府や規制当局は、新しい AI テクノロジーの暗い裏側に取り組んでいる。

オーストラリアの eSafety コミッショナーである Julie Inman Grant は、子供を含むすべてのオーストラリア人をオンラインの危害から守る責任を負っている。

Inman Grant の意向が通れば、Undress AI のようなツールは、児童ポルノの制作を適切に防止できない場合はオフラインにされるか、「プラットフォームから削除」される。

今月、彼女は新しい基準を発表した。その一部は、児童性的虐待の素材を生成するために使用できるウェブサイトに特化している。議会での15日間の禁止期間の後、6か月以内に発効する予定だ。

「これらの非常に強力なAI技術の急速な加速と普及は、実に驚くべきものだ。人物の画像を何千枚も用意したり、膨大な計算能力を必要としない。ソーシャルメディアから画像を集め、アプリに年齢と体型を伝えるだけで、数秒で画像が出てくる」とインマン・グラント氏は語った。

「これらのアプリがいかに強力で、いかにアクセスしやすいかを考えると、これは氷山の一角にすぎないと思います。そして、これらのアプリがこれほど急速に普及するとは誰も予想できなかったと思います。

「このようなアプリは文字通り何千もあります。」

インマン・グラント氏は、AIによって生成されたディープフェイクヌードを含む画像ベースの虐待が彼女のオフィスに頻繁に報告されていると述べた。報告された親密な画像や動画の約85%は削除されたと彼女は述べた。

「すべてのレベルの政府がこれを深刻に受け止めており、プラットフォームと、この素材を生成する人々に影響が出るでしょう。」

「それを見たときは吐きそうになりました」

この問題は、6月にバッカス・マーシュ・グラマーの10代の若者がAI搭載ツールを使用してクラスメート約50人のヌード画像を作成し、InstagramとSnapchatでそれらを配布したとして逮捕されたとき、学生とその親にとって暗い現実となった。

バッカス・マーシュ・グラマーの生徒の1人の親であるエミリーは、学校に通うトラウマセラピストのエミリーさんは、16歳の娘を外泊から迎えに行ったときに写真を見たとABCラジオに語った。

彼女は、帰宅途中に「吐き気を催した」娘のために車にバケツを用意していた。

「娘はとても動揺していて、吐いていました。信じられないほど生々しい光景でした」とエミリーさんは語った。

「だって、彼らは子供ですから...写真は切り刻まれていて、とても生々しい。私はそれを見た時、吐きそうになりました。

「50人の女の子は多いです。本当に気がかりです。」

バッカス・マーシュ・グラマーはポルノ画像で話題になったが、活動家のメリンダ・タンカード・レイストさんは、この問題は広範囲に及んでいると述べている。

エミリーさんによると、被害者のインスタグラムアカウントは非公開に設定されていたが、犯人がヌード画像を作成することを阻止することはできなかったという。

「またこんなことが起きるのだろうかという気持ちが残る。とてもトラウマになります。対策を講じれば、二度とこのようなことは起こらないと、どうしたら彼女たちを安心させることができるだろうか?」

ビクトリア警察の広報担当者は、まだ告訴は行われておらず、捜査が進行中であると述べた。

活動家のメリンダ・タンカード・ライストは、女性や少女の搾取に取り組むキャンペーン団体、コレクティブ・シャウトを率いている。彼女は、露骨な画像に自分の顔が貼り付けられた少女たちと会ったことがある。

タンカード・ライストは、全国の学校の少女たちが、少年たちが「自称ポルノプロデューサーになった」結果、トラウマを負っていると語った。

「私たちはディープフェイクという言葉を使っていますが、それはソーシャルメディアのプロフィールから顔が抜き取られ、裸の体に重ねられた本物の少女であることをごまかしていると思います」と彼女は語った。「そして、ダークウェブや秘密の場所に行く必要はありません。すべては主流の中にあります。」

「私は全国各地の学校にいつもいます。メディアの注目を集めている学校もありますが、これはどこでも起きています。」

バッカス・マーシュ・グラマー校の事件は、メルボルンのサレジオ大学の別のビクトリア州の学生が、AI 搭載ソフトウェアを使用して女性教師の「ディープヌード」を作成したために退学処分を受けた後に起きた。

法律の隙間

オーストラリアでは、法律がこの問題に追いついている。

これまで、AI ディープフェイクポルノに関する具体的な法律はビクトリア州にのみ存在し、同州では 2022 年に AI を使用して性的ディープフェイクを生成および配布することが違法となった。

今月、連邦政府はディープフェイクポルノの作成と共有を禁止する法案を導入し、現在議会で議論されている。犯罪者は、性的に露骨な素材を同意なく送信した場合、最長 6 年の懲役刑に処せられ、ディープフェイクを作成した場合にはさらに 1 年の懲役刑が科せられる。

マーク・ドレイファス法務長官によると、この法律は成人を描写した性的コンテンツに適用され、児童虐待コンテンツはすでにオーストラリアの刑法で扱われている。AI 生成画像は、18 歳未満の人物を性的に描写している場合、すでに違法であると彼は述べた。

「この不快で屈辱的な行為の標的となっているのは圧倒的に女性と少女です。そして、新しい技術や新興技術によってこのような虐待が発生しやすくなっているため、懸念が高まっています」とドレイファス氏は述べた。

「私たちは、法律の隙間を埋めるためにこの法律を議会に提出しました。既存の刑事犯罪では、成人のディープフェイク性的コンテンツが同意なしにオンラインで共有された場合は十分にカバーされていません。」

連邦政府はまた、オンライン安全法が目的に合致していることを確認するために、独立したオンライン安全法の見直しを進めている。

ノエル・マーティンは弁護士で研究者であり、18 歳のときに、彼女の同意なしにディープフェイクポルノ画像を捏造して共有する性的捕食者の標的となった。

マーティン氏にとって、被害者・生存者が若ければ若いほど、被害は深刻だ。

「捏造された親密な素材による被害者・生存者への被害は、親密な素材が本物である場合と同じくらい深刻であり、どちらの結果も致命的になり得る」と同氏は述べた。

「特に十代の少女にとって、このような形の虐待を経験すると、日常生活、学校、就職市場への参入が困難になる可能性がある」。

この虐待は「被害者が潜在能力を最大限に発揮するのを奪い、希望や夢を台無しにする可能性がある」とマーティン氏は述べた。

マーティン氏は、ディープフェイクのパイプラインに関与するすべての関係者が虐待を助長したことについて責任を問われることを望んでいる。これにはディープフェイクの提供者を宣伝するソーシャルメディアサイト、それらにトラフィックを誘導するGoogleやその他の検索エンジン、および金融取引を促進するクレジットカード会社が含まれる。

「結局のところ、法律はこの問題に対処するためのほんの一部に過ぎない」と同氏は述べた。 「こうした虐待を防ぐために学校での教育の改善、被害者に対する専門的なサポートサービス、そしてオンラインで配布されたコンテンツを削除する強力な手段も必要です。

「しかし、この問題に取り組むには、各国、政府、法執行機関、規制当局、デジタルプラットフォームが協力し、連携する必要があります。そうしなければ、この問題は悪化する一方です。」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd