概要: 2024年10月頃から、マルタの学校に通う12歳から20歳までの生徒がディープフェイクヌード事件の標的となった。犯人は生徒の顔を裸の少女の体に重ね合わせたり、「ヌード化」アプリを使って写真を「脱がせ」たりしていた。これらの写真は被害者にWhatsAppで送信され、屈辱を与えたり、場合によっては脅迫したりしていたと報じられている。
Alleged: Unknown deepfake technology developer developed an AI system deployed by Unknown deepfake creators と Unknown deepfake creators in Malta, which harmed Students in Malta , Minors in Malta と General public of Malta.
関与が疑われるAIシステム: Unknown deepfake app と Unknown nudify app
インシデントのステータス
インシデントID
1014
レポート数
1
インシデント発生日
2024-10-01
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
ディープフェイクを生成するアプリを使う人々によって、12歳ほどの子供たちの顔が裸の少女の体に重ねられたり、「服を脱がされた」りしたことがある。
このアプリは、AIによる画像生成を使用して人物の写真を分析し、衣服の下の体がどのようなものかデジタルで再現することで、リアルな偽の裸画像を作成する。
社会福祉サービス財団のBe Smart Onlineインターネット安全プロジェクトのコーディネーター、デボラ・ヴァサロ氏は、同団体がディープフェイクの裸画像に関する最初の報告を受けたのは…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents