インシデントのステータス
Risk Subdomain
4.3. Fraud, scams, and targeted manipulation
Risk Domain
- Malicious Actors & Misuse
Entity
Human
Timing
Post-deployment
Intent
Intentional
インシデントレポート
レポートタイムライン

Students at a middle school in Beverly Hills, California, used artificial intelligence technology to create fake nude photos of their classmates, according to school administrators. Now, the community is grappling with the fallout.
School o…

On Tuesday, Kat Tenbarge and Liz Kreutz of NBC News reported that several middle schoolers in Beverly Hills, Calif., were caught making and distributing fake naked photos of their peers: "School officials at Beverly Vista Middle School were…
このレポートには事件 799 に関する詳細が記載されていますが、この事件についても言及しています。
2 月に、ビバリー ビスタ中学校 の生徒が、クラスメートの偽のヌード写真を作成したとしてビバリーヒルズ警察の捜査を受けました。学校と学区の職員は、「AI で生成されたヌード写真」を認識していると表明しました。
ディープフェイク は、実在の人物または存在しない人物を描写した人工知能によって生成された画像、動画、音声クリップです。これらの AI によって生成された画像は、特に有名人…