Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5023

Loading...
男が訴訟でAIアバターを採用、裁判官は面白くない
nytimes.com · 2025

ジェローム・デワルド氏は、ニューヨーク州の裁判官による控訴審委員会の前で足を組んで膝の上に手を組み、元雇用主との争いで下級裁判所の判決を覆すよう主張する準備を整えていた。

弁護士ではなく自ら弁護するデワルド氏が、事前に録画したビデオ プレゼンテーションを弁論に添える許可を裁判所は得ていた。

ビデオが再生されると、デワルド氏の 74 歳よりも若く見える男性が青い襟付きシャツとベージュのセーターを着て、ぼやけた仮想背景と思われるものの前に立っているのが映し出された。

ビデオが始まって数秒後、スクリーンに映った画像に困惑した裁判官の 1 人が、その男性が弁護士かどうかデワルド氏に尋ねた。

「あれは私が作成したものです」とデワルド氏は答えた。「あれは実在の人物ではありません」。

裁判官、上訴部第一司法部のサリー・マンザネット・ダニエルズ判事は、一瞬言葉を止めた。判事が彼の答えに不満を抱いているのは明らかだった。

「あなたが申請をしたときにそれを知っていればよかったのに」と彼女は彼に怒鳴りつけた。

「私は騙されるのは嫌だ」と彼女は付け加え、誰かにビデオを消すように叫んだ。

デワルド氏が明らかにしなかったのは、彼が人工知能ソフトウェアを使ってデジタルアバターを作成したということだ。これは、AIが潜在的に問題のある形で米国の司法制度に忍び込んでいる最新の例である。

3月26日のデワルド氏が陳述を行った審問は裁判所のカメラで撮影され、AP通信が先に報じた。

金曜日に連絡が取れたこの事件の原告デワルド氏は、審問で恥ずかしさで打ちのめされたと語った。彼はその後すぐに裁判官に謝罪の手紙を送り、深い後悔を表明し、自分の行動が「うっかり裁判所を誤解させた」ことを認めた。

彼は以前の法的手続きで言葉に詰まったため、このソフトウェアを使うことにしたと語った。AIを使用する。なぜなら、このプレゼンテーションは法廷で感じるプレッシャーを和らげるかもしれないと彼は考えたからだ。

彼は、自分自身のデジタル版を作る予定だったが、そうする際に「技術的な問題」に遭遇したため、代わりに録音用に偽の人物を作成したと述べた。

「私の意図は欺くことではなく、自分の主張を可能な限り効率的に提示することだった」と彼は判事への手紙の中で述べた。「しかし、適切な開示と透明性が常に優先されなければならないことは認識している」

自称起業家のデワルド氏は、以前の雇用主との契約紛争で以前の判決を控訴していた。彼は最終的に控訴審で口頭弁論を行ったが、どもり、頻繁に立ち止まって気持ちを落ち着かせ、携帯電話から用意した発言を読んだ。

恥ずかしいとは思うかもしれないが、デワルド氏は、実際の弁護士が法廷でAIを使用して問題を起こしたという事実にいくらか慰めを見いだすことができた。

2023年、ニューヨークの弁護士が、偽の司法意見や法的な引用文を満載したChatGPTを使用して法的な要約を作成ことで、厳しい報復に直面した。この事件は、人工知能に頼ることの欠陥を浮き彫りにし、法曹界全体に波紋を呼んだ。

同じ年、トランプ大統領の元弁護士でフィクサーのマイケル・コーエン氏は、人工知能プログラムであるGoogle Bardから入手した偽の法的な引用文を弁護士に提供した。コーエン氏は最終的に、この事件を担当する連邦判事に恩赦を請願し、生成テキストサービスが偽の情報を提供する可能性があることを知らなかったことを強調した。

専門家の中には、人工知能や大規模言語モデルは、法律問題を抱えながらも弁護士を雇う余裕のない人々にとって役立つ可能性があると言う人もいる。それでも、この技術のリスクは残っている。

ウィリアム・アンド・メアリー大学ロースクールの法律・裁判所技術センターの研究副ディレクター、ダニエル・シン氏は、「人工知能や大規模言語モデルは依然として幻覚を起こし、非常に説得力のある情報を作り出します」が、実際には「偽物か無意味です」と語る。「このリスクに対処する必要があります。」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd