Description: At Beverly Vista Middle School in Beverly Hills, California, students allegedly used AI to generate fake nude photos with their classmates' faces, prompting investigations by school officials and the police. The incident highlights the increasing misuse of generative AI among minors.
Alleged: Unknown deepfake creator developed an AI system deployed by , which harmed Unnamed middle school students.
インシデントのステータス
インシデントID
651
レポート数
3
インシデント発生日
2023-12-06
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
nbcnews.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Students at a middle school in Beverly Hills, California, used artificial intelligence technology to create fake nude photos of their classmates, according to school administrators. Now, the community is grappling with the fallout.
School o…
nytimes.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
On Tuesday, Kat Tenbarge and Liz Kreutz of NBC News reported that several middle schoolers in Beverly Hills, Calif., were caught making and distributing fake naked photos of their peers: "School officials at Beverly Vista Middle School were…
highschool.latimes.com · 2024
- 情報源として元のレポートを 表示
- インターネットアーカイブでレポートを表示
このレポートには事件 799 に関する詳細が記載されていますが、この事件についても言及しています。
2 月に、ビバリー ビスタ中学校 の生徒が、クラスメートの偽のヌード写真を作成したとしてビバリーヒルズ警察の捜査を受けました。学校と学区の職員は、「AI で生成されたヌード写真」を認識していると表明しました。
ディープフェイク は、実在の人物または存在しない人物を描写した人工知能によって生成された画像、動画、音声クリップです。これらの AI によって生成された画像は、特に有名人…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください