Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4525

関連インシデント

インシデント 6523 Report
Two Florida Middle School Students Arrested Under New Law for Allegedly Having Made and Shared Deepfake Nudes of Their Classmates

Loading...
マイアミの10代の若者、クラスメイトのヌード画像をAIで作成したとして逮捕
the-decoder.com · 2024

フロリダ州マイアミの13歳と14歳の2人のティーンエイジャーが、警察の報告書を引用して、AIで12歳と13歳の男女のクラスメートのヌード画像を作成し、本人の同意なしに共有した疑いで2023年12月22日に逮捕されたとWIREDが報じている。

報告書によると、ティーンエイジャーらは「AIアプリ」を使用して偽の露骨な画像を作成したとされている。報告書ではアプリの名前は言及されていない。

ティーンエイジャーらは、自動車窃盗や不法監禁に相当する第3級重罪の容疑に直面している。この告発は、ディープフェイク画像による嫌がらせを抑制するために2022年にフロリダ州で可決された法律に端を発している。

これまでのところ、告発された少年たちの両親も、担当の捜査官や検察官も、この事件についてコメントしていない。

同様の事件は 米国 や 欧州 でも発覚している。しかし、フロリダの事件は、AI が生成したとされるヌード画像による逮捕と起訴が初めて知られている事件と考えられている。

AI 画像生成器が児童虐待の増加につながる

AI 偽画像に描かれた裸体は、実際の体ではなく、人工知能によって作成されたレプリカである。それでも、これらの画像は本物に見える可能性があり、心理的苦痛や評判の失墜につながる可能性がある。

ホワイトハウスは最近、AI が生成したテイラー・スウィフトのヌード写真 に対して反応を示しました。米国政府は、この事件や同様の事件を「憂慮すべき」と呼び、新しい法律が必要だと述べました。

2023 年 10 月下旬、インターネット ウォッチ財団 (IWF) は、AI 画像ジェネレーターが児童性的虐待素材 (CSAM) の増加にもつながっていると報告しました。

米国の国立行方不明・搾取児童センターは、2023年6月末までにAIが生成した虐待画像が「急増」したと報告した(https://the-decoder.com/ai-generated-child-abuse-images-pose-new-problems-for-investigators/)。これらの画像は捜査を複雑にし、被害者の身元確認を妨げる可能性がある。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd