概要: Purported deepfake nude images of female students were circulated without consent at an educational institute in Valencia, Spain. At least 16 minors reported that original photographs had been digitally manipulated so they appeared completely naked, with some images shared via social media accounts created in victims' names. The alleged creation and distribution of the images is being examined under Spanish laws related to the protection of minors.
Editor Notes: Timeline notes: The reported incident occurred sometime in December 2024. Outlets began widely reporting on it on July 27, 2025.
Alleged: Unknown deepfake technology developers と Unknown image generator developers developed an AI system deployed by Unnamed student , Unnamed male student と Unnamed male student in Valencia, which harmed Unnamed students , Unnamed female students と Unnamed female students in Valencia.
インシデントのステータス
インシデントID
1342
レポート数
1
インシデント発生日
2024-12-01
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
Loading...

Spanish police said on Sunday they were investigating a 17-year-old on suspicion of using artificial intelligence to deepfake nude images of female classmates for sale.
Sixteen young women at an educational institute in Valencia, in southea…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents


