Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4316

関連インシデント

インシデント 8521 Report
Alleged Fake Citations Undermine Expert Testimony in Minnesota Deepfake Law Case

Loading...
ミネソタ州のディープフェイク事件で、誤情報の専門家が存在しない情報源を引用 • ミネソタ改革者
minnesotareformer.com · 2024

誤情報の第一人者が、選挙誤報を禁止するミネソタ州の新法を擁護するために、存在しない情報源を引用したとして非難されている。

スタンフォード大学の経歴によると、スタンフォード大学ソーシャルメディアラボの創設ディレクターであるジェフ・ハンコック教授は、「人々がテクノロジーを使って欺瞞を行う方法についての研究で有名」だという。

ミネソタ州司法長官キース・エリソンの要請により、ハンコック教授は最近、選挙に影響を与えるためにいわゆる「ディープフェイク」テクノロジーの使用を禁止する新法を支持する宣誓供述書を提出した。この法律は、保守派のユーチューバーで、アレクサンドリアの共和党下院議員メアリー・フランソン氏によって、憲法修正第1条の言論の自由の保護に違反しているとして連邦裁判所で異議を申し立てられている。

ハンコック氏のディープフェイク法を支持する専門家の声明には、多数の学術論文が引用されている。しかし、それらの情報源のいくつかは存在しないようで、法律に異議を唱える弁護士は、それらはChatGPTのような人工知能ソフトウェアによって作られたようだと述べている。

例えば、宣言では「ディープフェイク動画の政治的態度と行動への影響」と題された研究を引用し、それが2023年に_Journal of Information Technology & Politics_に掲載されたと述べている。しかし、その名前の研究はそのジャーナルに掲載されておらず、学術データベースにはその研究が存在するという記録はなく、参照されている特定のジャーナルページには2つのまったく異なる記事が含まれている。

「この引用文は人工知能(AI)の『幻覚』の特徴を備えており、少なくとも引用文はChatGPTのような大規模な言語モデルによって生成されたことを示唆している」と原告側の弁護士は書いている。「原告は、この幻覚がどのようにしてハンコックの宣誓供述書に盛り込まれたのかは知らないが、この文書全体に疑問を投げかけるものだ。」

これとは別に、リバタリアンの[法学教授ユージン・ヴォロック]は、ハンコックの宣誓供述書にある別の引用文が存在しないようだと発見した。その引用文は「ディープフェイクと真正性の錯覚:誤情報の受容の背後にある認知プロセス」と題された研究である。

引用文が人工知能ソフトウェアによって生成されたものであれば、ハンコックの12ページの宣誓供述書の他の部分も同様に生成された可能性がある。存在しない引用文がハンコック、アシスタント、または他の関係者によって挿入されたかどうかは不明である。ハンコックもスタンフォード・ソーシャルメディア・ラボも、繰り返しのコメント要請に返答しなかった。エリソンの事務所も同様だった。

この訴訟の原告側の弁護士であるフランク・ベドナーズ氏は、ディープフェイク法の支持者は「ネット上の他の発言とは異なり、AIが生成したコンテンツはファクトチェックや教育では対抗できないはずだ」と主張していると述べた。

しかし、同氏は「AIが生成した捏造を法廷に訴えることで、虚偽の発言に対する最善の救済策は検閲ではなく、真実の発言であることを示している」と付け加えた。

近年、人工知能ソフトウェアの不器用な使用により、法制度全体で 数多くの 恥ずかしい出来事 [が発生しています。たとえば、2023年には、ニューヨークの弁護士2人が、ChatGPTが捏造した存在しない訴訟事件の引用を含む弁論要旨を提出したとして連邦判事から制裁を受けた。

以前のChatGPTの事故に関わった弁護士の中には、ソフトウェアの限界や、単に事実を捏造する傾向を知らなかったとして、無知を主張した者もいる。しかし、ハンコック氏はテクノロジーと誤報の第一人者であり、偽の引用は特に恥ずかしいものだ。

同氏の宣誓供述書は、次の文で締めくくられている。「私は、偽証罪に問われることを承知の上で、この文書で述べたことはすべて真実かつ正しいことを宣言します。」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd