Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4533

関連インシデント

インシデント 9048 Report
Kate Isaacs, Advocate Against Image-Based Abuse, Reports Being Deepfaked

Loading...
「自分の顔が映ったインターネット動画を見て、胃が痛くなった。でもそれは私じゃない」
mirror.co.uk · 2023

30歳の女性は、自分の顔が映っているディープフェイクポルノの動画を見て「胃が痛くなった」と語った。

ケイト・アイザックスさんはTwitterをスクロールしているときに初めてこの動画を見て、映像に映っている女性が自分に似ていることに気付いたとき「熱くなった」と回想している。

彼女は、どこで撮影されたのか、誰かが彼女の同意なしに撮影したのか、誰がこの動画を公開したのかなど、多くの疑問を自問し始めた。

不安のため、最初は映像が自分のものではなく、ディープフェイクソフトウェアを使って自分の顔がポルノスターの体に重ね合わされていたことに気付かなかった。ディープフェイクソフトウェアは、画像をデジタル操作して、視覚、音声、動画の偽物を作成する。

アイザックスさんは、このディープフェイク動画が「とても説得力があった」ため、自分ではないと気づくのに数分かかったと語った。

彼女はデイリーメールに次のように語った。「私を知っている人なら誰でも同じことを思うでしょう。悲惨でした。私は侵害されたと感じ、それが誰の目にも明らかになりました。」

この女性は、誰が動画を作ったのかはわからなかったが、以前「合意のないポルノ」の増加について発言していたため、自分が標的にされたと考えている。

キャンペーン団体「Not Your Porn」の創設者でもあるこの活動家は、2020年に登場した彼女の偽ポルノ動画は、インターネットから無害な映像を使って作られたと語った。

彼女はこう語った。「今や、これで十分です。自分の画像をネット上に載せている女性は皆、潜在的な被害者です。最近では、私たち全員が被害者です」

ディープフェイクは、既存の動画を撮影し、誰かの顔を別の人の顔に置き換えたり、表情を真似したりできる人工知能ソフトウェアを使用して作成されます。

この技術は、有名人の気軽なディープフェイク動画の作成に使用されていますが、最も一般的に使用されているのは、性的に露骨な動画です。

ソフトウェアがより洗練されるにつれて、ディープフェイクはますます大きな問題になると専門家は警告しています。

テクノロジーを利用した虐待に関するトレーニングを提供する団体 EndTAB の創設者アダム・ドッジ氏は、CBS ニュース に次のように語った。「現実には、テクノロジーは今後も増加し、発展を続け、ボタンを押すのと同じくらい簡単になり続けるでしょう。

「そして、それが続く限り、人々は間違いなくそのテクノロジーを悪用し、主にオンラインの性的暴力、ディープフェイクポルノ、偽のヌード画像を通じて他人に危害を加え続けるでしょう。」

アイザックスさんが経験した問題は、悲しいことに非常に一般的であり、オーストラリアのパース出身の女性ノエル・マーティンの例がそれを示しています。

28 歳の彼女は、10 年前に Google を使用して自分の名前を検索したときに、自分自身のディープフェイクポルノを見つけました。

彼女は、偽の画像を作成したのは誰なのかまだわからず、誰かが盗んだのではないかと考えています。ソーシャルメディアに投稿された写真。

画像を削除しようと複数のウェブサイトに連絡したが、無視されたか、偽の画像が削除された後に再びオンラインに投稿された。

マーティン氏は「勝てるはずがありません。これは常に存在するものです。永遠にあなたを台無しにしてしまったようなものです」と述べた。

2022年10月、アイザックス氏はサンデーピープルに語ったところによると、警察に通報された復讐ポルノ事件のうち、起訴に至ったのはわずか3%だという数字が明らかになった。

他人のプライベートな性的写真や動画を同意なく共有することは2015年に違法となったが、それ以降、この件で警察に寄せられた23,672件の苦情のうち、起訴に至ったのはわずか846件である。

アイザックス氏は「2015年の当初の法律は緩く、有罪判決を得るのは困難でした。悪意を証明できなければなりません。それに加えて、誰も法律を本当に知りません」と述べた。

英国警察43か所すべてに情報公開請求を行ったところ、一部のケースでは「公共の利益の欠如」が起訴されない理由として挙げられていたことが判明した。そして、すべての警察が応じたわけではなく、ロンドン警視庁は拒否した12か所のうちの1つだった。

アイザックス氏は「公共の利益に反すると言うのは気分が悪い。これは衝撃的で、女性の権利と画像による性的虐待がいかに真剣に受け止められていないかを明確に示している」と述べた。

家庭内暴力の被害者で、2児の母であるナターシャ・サンダースさん(33歳)は「恐ろしい。法律は施行されておらず、十分ではない。これは本当に犯罪だ」と述べた。

「加害者と一緒にいたとき、彼は私の写真を撮りました。彼が刑務所から出たら、これらの画像にアクセスできるでしょう。私が出所した後も脅迫を受けていました。彼は私の電話帳に載っている全員に画像を共有すると言っていました。警察にはもっと良い指導が必要です。」

サンダースさんの元夫は、2018年に3件の強姦と1件の性的暴行で懲役12年の判決を受けており、2025年までに刑務所から出られる可能性があります。

この記事は、マイブックマークまたは右上のユーザーアイコンからご覧いただけます。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd