Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1014: マルタの学校の生徒がディープフェイクヌードの標的になっていると報道

自動翻訳済み
概要:
自動翻訳済み
2024年10月頃から、マルタの学校に通う12歳から20歳までの生徒がディープフェイクヌード事件の標的となった。犯人は生徒の顔を裸の少女の体に重ね合わせたり、「ヌード化」アプリを使って写真を「脱がせ」たりしていた。これらの写真は被害者にWhatsAppで送信され、屈辱を与えたり、場合によっては脅迫したりしていたと報じられている。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developer developed an AI system deployed by Unknown deepfake creators と Unknown deepfake creators in Malta, which harmed Students in Malta , Minors in Malta と General public of Malta.
関与が疑われるAIシステム: Unknown deepfake app と Unknown nudify app

インシデントのステータス

インシデントID
1014
レポート数
1
インシデント発生日
2024-10-01
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceディープフェイクヌードの標的は12歳の子供
ディープフェイクヌードの標的は12歳の子供

ディープフェイクヌードの標的は12歳の子供

timesofmalta.com

ディープフェイクヌードの標的は12歳の子供
timesofmalta.com · 2025
自動翻訳済み

ディープフェイクを生成するアプリを使う人々によって、12歳ほどの子供たちの顔が裸の少女の体に重ねられたり、「服を脱がされた」りしたことがある。

このアプリは、AIによる画像生成を使用して人物の写真を分析し、衣服の下の体がどのようなものかデジタルで再現することで、リアルな偽の裸画像を作成する。

社会福祉サービス財団のBe Smart Onlineインターネット安全プロジェクトのコーディネーター、デボラ・ヴァサロ氏は、同団体がディープフェイクの裸画像に関する最初の報告を受けたのは…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 レポート
Airbnb's Trustworthiness Algorithm Allegedly Banned Users without Explanation, and Discriminated against Sex Workers

Airbnb's Trustworthiness Algorithm Allegedly Banned Users without Explanation, and Discriminated against Sex Workers

Jul 2017 · 6 レポート
Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 レポート
Airbnb's Trustworthiness Algorithm Allegedly Banned Users without Explanation, and Discriminated against Sex Workers

Airbnb's Trustworthiness Algorithm Allegedly Banned Users without Explanation, and Discriminated against Sex Workers

Jul 2017 · 6 レポート
Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178