Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4389

関連インシデント

インシデント 8747 Report
1 in 6 Congresswomen Have Reportedly Been Targeted by AI-Generated Nonconsensual Intimate Imagery

AIが議会に進出:性的に露骨なディープフェイクが女性議員をターゲットに
19thnews.org · 2024

性的に露骨なディープフェイクの被害者となった議員は20人以上に上り、その大半は女性であることが、この技術における男女格差の著しい拡大と、女性の政治参加やその他の市民活動へのリスクの高まりに焦点を当てた新たな調査で明らかになった。

偽情報を研究し、民主主義を促進する政策を提唱するシンクタンクである[アメリカン・サンライト・プロジェクト(ASP)](https://www.americansunlight.org/)は水曜日、ディープフェイクのウェブサイトで最近発見された、議員26人(女性25人と男性1人)を描いた非合意の親密な画像(NCII)の言及が35,000件以上あることを明らかにした調査結果を発表した。研究者らが調査結果を共有した結果、画像のほとんどはすぐに削除された。

「私たちは、この新しい環境と、インターネットが女性や社会的に疎外されたコミュニティを不釣り合いに狙う多くの危害を引き起こしたという事実を、ある程度認識する必要がある」と、アメリカン・サンライト・プロジェクトを設立し、この研究の著者でもある、オンライン偽情報およびハラスメントの専門家、ニーナ・ヤンコウィッツ氏は述べた。

口語的にはディープフェイクポルノとも呼ばれる(ただし、支持者は前者を好む)非合意の親密な画像は、生成AIを通じて、または成人パフォーマーのメディアにヘッドショットを重ねることで作成できる。現在、その作成と拡散を制限する政策は限られている。

ASP は、この種としては初の調査結果を The 19th に独占的に公開した。同グループは、11 の有名なディープフェイク サイトで第 118 回議会議員を姓名、略称、ニックネームで検索できるカスタム検索エンジンを開発するなどして、データを収集した。政党所属や地理的位置は、虐待の標的になる可能性には影響しなかったが、若い議員の方が被害に遭う可能性が高かった。最大の要因は性別で、女性議員が標的になる可能性は男性より 70 倍高い。

ASP は、検索を促すのを避けるため、画像に描かれた議員の名前を公表しなかった。彼らは影響を受けた議員全員の事務所に連絡して警告し、オンラインの害やメンタルヘルスのサポートに関するリソースを提供した。研究の著者らは、直後に議員のほとんどを標的にした画像がサイトから完全に、またはほぼ完全に削除されたと指摘しているが、その理由は説明できない。研究者らは、このような削除によって素材が再び共有またはアップロードされるのを防ぐことはできないと指摘している。議員が関与するケースでは、コンテンツが大部分または完全に削除されたにもかかわらず、検索結果ページが Google のインデックスに残ったままだった。

「削除は偶然の可能性もあります。このコンテンツが削除された原因が何であれ、停止命令書、著作権侵害の申し立て、ディープフェイクの不正使用をホストしているサイトとのその他の接触など、大きな特権格差を浮き彫りにしています」と調査は述べている。「議員に与えられるリソースを持たない人々、特に女性は、自ら削除要請を開始したとしても、AI 生成の NCII の作成者や配布者からこのような迅速な対応を得ることはほとんど不可能でしょう。」

調査の初期結果によると、現在議会に所属する女性議員の約 16%、つまり女性議員の約 6 人に 1 人が、AI 生成の非合意の親密な画像の被害者となっている。

オンライン偽情報および嫌がらせの専門家であるニーナ・ヤンコヴィッツ氏は、26人の議員を描写した非合意の親密な画像(NCII)の言及が35,000件以上あることを特定した最近の研究の著者です。(バスティアン・インズラルデ/AFP/ゲッティイメージズ)

ヤンコヴィッツ氏は、国内外で偽情報の解体に取り組んでいるため、オンラインの嫌がらせや脅迫の標的となっている。彼女はまた、ディープフェイク虐待の被害者であることについても公に語っており、その事実は2023年にGoogleアラートを通じて知った。

「同意なしに、こうした危険で親密な状況に出演させられる可能性があり、そうした動画は、たとえ私の場合のように元の投稿者に対して著作権を主張したとしても、あなたのコントロールなしに、またディープフェイクポルノを拡散または作成している人々に何らかの影響を与えることなく、インターネット上で増殖します」と彼女は述べた。「それは、公の場で注目され、公の議論に参加している人にとって、特に女性や有色人種の女性にとって、引き続きリスクとなります。」

画像ベースの性的虐待は、子供を含む政治に関与していない一般の人々を含む被害者に壊滅的な精神的健康影響を及ぼす可能性があります。過去1年間で、カリフォルニア州、ニュージャージー州、ペンシルバニア州などの州で、女子高校生が画像による性的虐待の標的になっているという報告がありました。学校当局の対応はさまざまだが、FBIも新たな警告を発している。未成年者のこのような画像の共有は違法だという。

ディープフェイクが社会に及ぼす影響の全容はまだ明らかになりつつあるが、調査によると、18歳から29歳の女性の41%がオンラインでの嫌がらせを避けるために自己検閲を行っていることがすでに示されている。

「人口のほぼ半数が嫌がらせを恐れて自ら沈黙しているとなると、民主主義と言論の自由に対する非常に大きな脅威となる」と、ペンシルベニア大学のメディア・アット・リスク・センターの研究ディレクター、ソフィー・マドックス氏は述べた。

AI が生成した同意のない親密な画像を生成し配布する者に対して刑事罰または民事罰を規定する連邦法はない。近年、約 12 の州が法律を制定しているが、そのほとんどは刑事罰ではなく民事罰を含んでいる。

AI が生成した同意のない親密な画像は、脅迫や地政学的譲歩の条件を作り出すことで、国家安全保障への脅威も生み出す。それは、画像の直接の標的であるかどうかに関係なく、政策立案者に波及効果をもたらす可能性がある。

「私がここで望んでいるのは、議員たちが、それがアメリカの女性たちだけでなく自分たちにも影響を及ぼしていることを認識して行動を起こすことです」とジャンコウィッツ氏は語った。「自分たちの同僚にも影響を及ぼしています。そして、これは単に彼女たちが世間の注目を浴びているから起きているのです。」

画像による性的虐待は、公職に立候補している女性にとって特有のリスクである。バージニア州の民主党員であるスザンナ・ギブソン氏は、共和党の工作員が、彼女と夫が出演する性的に露骨なライブストリームの録画をワシントンポスト紙に無断で共有したため、激戦区の立法選挙で僅差で敗れた。敗北から数か月後、ギブソン氏は、性的画像が嫌がらせに利用されるのを恐れて公職に立候補することを思いとどまらせた若い女性たちから連絡があったと19thに語った。ギブソン氏はその後、画像による性的虐待と闘うことを目的とした非営利団体と、親密なプライバシーの侵害に反対する女性候補者を支援するための付随する政治活動委員会を設立しました。

私たちのジャーナリズムは、コミュニティの経験とニーズに根ざしています。年末のインパクト ドライブ中に私たちの非営利ニュースルームを支援してください。寄付金は同額になります。

今すぐ寄付

マドックス氏は、公の場で声を上げる女性がデジタル性的暴力を受ける可能性が高くなることを研究しました。

「私たちには、女性らしさは公の場での発言に反するという考えに関する メアリー・ビアードの著作と研究 を思い起こさせる、ずっと以前からある『女性は見られるべきで、声を上げてはいけない』というパターンがあります。ですから、女性が公の場で話すときは、まるで『よし、彼女たちを辱める時だ。彼女たちを裸にする時だ。彼女たちを家に戻す時だ。彼女たちを辱めて沈黙させる時だ』という感じなのです。そして、その沈黙と辱める動機…女性議員に関連してこの害がどのように現れているのかを理解するために、私たちはそれを理解しなければなりません。」

ASP は連邦法案を可決するよう議会に働きかけています。 2024年露骨な偽造画像および合意のない編集の阻止法、別名DEFIANCE法は、そのような画像を作成、共有、または受け取った人を訴えることを可能にする。Take It Down法は、そのような行為に対する刑事責任を規定し、テクノロジー企業にディープフェイクの削除を義務付ける。両法案は超党派の支持を得て上院を通過したが、下院ではテクノロジー政策の典型的な障害である言論の自由と危害の定義に関する懸念を乗り越えなければならない。

「議会がこれらの法案のうち少なくとも1つを可決せずに今会期を失効させるのは職務怠慢だ」とジャンコウィッツ氏は述べた。「これは、人工知能の害が現在、実際のアメリカ人に実際に感じられる方法の1つだ。これは将来の害ではない。私たちが想像しなければならないものではない」

議会の行動がない中で、ホワイトハウスは民間部門と協力して、画像ベースの性的虐待を抑制するための創造的な解決策を考案してきた。しかし、批評家は、ビッグテックのプラットフォームによって引き起こされた害の歴史を考えると、ビッグテックが自らを規制する能力について楽観的ではない。

「加害者がこのようなコンテンツを作成するのは非常に簡単です。そして、そのシグナルは標的の女性個人にだけ向けられたものではありません」とヤンコウィッツ氏は語った。「それは世界中の女性に向けられたもので、『この措置を講じ、声を上げれば、このような結果に対処しなければならないかもしれません』と伝えているのです」

_画像ベースの性的虐待の被害者になった場合は、サイバー市民権イニシアチブ が法的リソースのリストを維持しています。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf