Description: In 2017, Noelle Martin discovered explicit deepfake videos online that used AI technology to superimpose her face onto pornographic scenes. This incident was a continuation of the abuse she had experienced since at least 2012, when she first found doctored still images of herself in similar contexts. Despite the initial lack of legal protections, her advocacy efforts were instrumental in making image-based abuse a criminal offense in Australia.
Editor Notes: Incidents 771 and 772 are closely related in terms of narrative overlap and discussion.
Alleged: Stanford University , Max Planck Institute , University of Erlangen-Nuremberg , Face2Face , FaceApp と Zao developed an AI system deployed by Unknown deepfake creators, which harmed Noelle Martin.
インシデントのステータス
インシデントID
771
レポート数
1
インシデント発生日
2020-02-06
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
elle.com · 2020
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
'There's deepfakes of you,' the email read. Instantly, my pulse quickened. Who was this? How did they get my email address? What was a deepfake?
As panic began to set in, I Googled the term and watched, horrified, as clips of celebrities in…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください