Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5483

関連インシデント

インシデント 11384 Report
South African Legal Team Reportedly Relied on Unverified ChatGPT Case Law in Johannesburg Body Corporate Defamation Matter

Loading...
AIは電気羊の夢を見るか?裁判官はAI生成コンテンツへの盲目的な信頼に警鐘を鳴らす
moonstone.co.za · 2023

インターネットで読んだことをすべて鵜呑みにしてはいけません。

ヨハネスブルグのパークウッドにある法人から名誉を傷つけられたと主張していたミシェル・パーカーさんの代理人を務める弁護士たちは、原告側の主張を裏付ける資料として引用された判決が虚偽であることが判明した際、この陳腐な言い回しを恥ずかしく思い知らされました。これらのいわゆる判決を見つけるために使われた情報源は、ChatGPTでした。

この人工知能チャットボットはOpenAIによって開発され、2022年11月30日にリリースされました。4か月後、OpenAIは大幅に機能が向上した新しい大規模言語モデル(LLM)であるGPT-4をリリースしました。5月までに、Anthropicの生成AIであるClaudeは、1分間に約7万5000語(平均的な小説の長さ)に相当する10万トークンのテキストを処理できるようになりました。これは、3月の発表時には約9000トークンでした。 5月には、Googleは生成AIを活用したいくつかの新機能を発表しました。その中には、Search Generative Experienceや、Bardチャットボットの基盤となる新しい法学修士課程「PaLM 2」などがあります。

これらの生成AIアプリケーションは世界中の人々の想像力を掻き立てていますが、誤りや「幻覚」を生み出すことも知られています。そのため、一般的には、この問題を明らかにする免責事項が明確に表示されています。

言い換えれば、「読者は用心せよ」ということです。

ヨハネスブルグ地方裁判所で下されたアービン・チャイトラム判事の判決内容は、サンデー・タイムズで初めて報じられました。この事件は3月に初めて判事に持ち込まれ、法人の管財人側弁護士であるクレア・アビドン氏が、法人は名誉毀損で訴えられないと主張しました。

パーカー氏の弁護士、ジュリー・ヘイズ氏は、この問題に答える過去の判決が存在すると主張した。チャイトラム判事は、「この問題は訴訟全体の結論を左右する可能性のある新しい問題であるように思われる」として、5月下旬への延期を認め、両当事者に「提示された判例」の出典を示すよう求めた。

その後、この「共同努力」が行われ、全国の高等裁判所、複数の州の裁判所書記官、そして法律実務協議会図書館の法務図書館員との協議が行われた。

ヨハネスブルグ弁護士会図書館に協力を求めたところ、図書館員も判決を見つけることができないと述べた。彼らは、これらの判例がChatGPTによって生成された可能性があると最初に疑念を呈した。

判決によると、この疑念は後に法廷で確認され、「原告側の弁護士が、自身の弁護士がChatGPTを通じて判例を入手したと説明した」という。判決文によると、パーカー氏の弁護士はAIチャットボットの結果を「その正確性について確信を持たずに」受け入れたという。

判決文には、「氏名と引用は虚偽であり、事実は虚偽であり、判決も虚偽である」と記されている。

原告側の弁護士チームがこれらの虚偽の判決を裁判所に提出していた場合、非常に不利な結果になっていた可能性があった。しかし、判決文が相手方にのみ提出されていたことを踏まえ、判事は原告側の弁護士は裁判所を誤解させる意図はなく、「単に熱心すぎ、不注意だった」と判断した。

しかしながら、パーカー氏は裁判所から懲罰的費用の支払いを命じられた。

チャイトラム氏は、「実際、裁判所はこれを懲罰的だとは考えていません。単に適切な措置です。この事件に伴う当惑は、原告側の弁護士にとって十分な罰となるでしょう」と述べた。

AIは法務実務において果たす役割はあるか?

法律事務所ノートン・ローズ・フルブライトは、この件についてコメントし、ChatGPTのようなAIツールは、法的概念や考えられる法的論点、あるいは回答を高レベルで検討するのに役立つ可能性があると述べた。

「これらは、さらなる調査と分析の出発点となる。しかし、法的調査の唯一あるいは最終的な情報源となるべきではない。AIが生成したか否かにかかわらず、すべての情報と情報源は独立して相互検証されなければならない。」

しかし、同法律事務所は、顧客の機密保持が最優先事項であることを強調する。「AIツールは、顧客の機密データにアクセスすべきではない。セキュリティが保証されない可能性があるからだ。」

同法律事務所は、実務におけるAIの使用を全面的に禁止することは現実的でも有益な解決策でもないとして、反対を唱えた。

これらのツールは、正しく使用すればその優れた有用性を発揮し、法務専門家にとって貴重な資産となり得ます。たとえ使用を禁止したとしても、スタッフは依然としてAIを活用しようとする可能性が高いでしょう。私たちは、今回のような事例を防ぐために、AIを正しく安全に使用する方法を学び、その可能性と限界を理解することに注力すべきです。

ChatGPTが誤った判断を下した場合、誰が代償を払うのか?

ChatGPTが重大な誤りを犯し、メディアや裁判所で取り上げられたのは、今回が初めてではありません。

現在、米国ジョージア州で係争中の訴訟は、生成AI分野の標準策定に大きな影響を与える見込みです。

ブルームバーグ法律事務所が最初に報じた、ジョージア州のラジオパーソナリティ、マーク・ウォルターズ氏は、ChatGPTが彼に関する虚偽の情報を拡散し、横領の疑いをかけていることを発見しました。その結果、彼はOpenAIを提訴しました。これは同社にとって初の名誉毀損訴訟となります。

Walters v OpenAI LLCの訴訟によると、この誤報は、銃器専門誌AmmoLandの編集長であるフレッド・リール氏が、自身が取材していた事件の背景として、ChatGPTにSecond Amendment Foundation v Fergusonの要約を求めたことがきっかけで発生しました。

ChatGPTはリール氏に事件の要約を提供し、その中で、Second Amendment Foundation(SAF)の創設者であるアラン・ゴットリーブ氏が、ウォルターズ氏を「SAFから資金を詐取し、横領した」と非難したと述べていました。

ビジネステクノロジーニュースサイトZDNETが6月に報じたように、ウォルターズ氏は要約に記載されたすべての「事実」が虚偽であると主張しました。彼はOpenAIに対し、一般損害賠償、懲罰的損害賠償、および訴訟費用の償還を求めています。

この訴訟によって浮かび上がる可能性のある疑問には、誰が責任を負うべきか、そしてウェブサイトの幻覚に関する免責事項が責任を免責するのに十分かどうかなどが含まれます。

AI幻覚とは何か、そしてなぜ起こるのか

未来学者のバーナード・マー氏は、AIにおける幻覚を、一見もっともらしいように聞こえるものの、事実誤認、あるいは与えられた文脈とは無関係な出力の生成と説明しています。

「こうした出力は、AIモデルに内在するバイアス、現実世界への理解不足、あるいは学習データの限界から生じることが多い。言い換えれば、AIシステムは明示的に学習されていない情報を『幻覚化』し、信頼性の低い、あるいは誤解を招くような応答につながる」と、マー氏は3月22日にオンライン公開された記事「ChatGPT:幻覚とは何か、そしてなぜAIシステムにとって問題となるのか」の中で述べています。

記事の中で、マー氏は「幻覚」が問題となる4つの理由として、信頼の喪失、倫理的な懸念、意思決定への影響、そして法的影響を挙げています。

「AIシステムが不正確な情報や誤解を招く情報を生成すると、ユーザーはその技術への信頼を失い、様々な分野での導入が阻害される可能性がある」と彼は述べている。

倫理的な観点から、幻覚的な出力は有害な固定観念や誤情報を永続させる可能性があると彼は付け加えている。

意思決定において、AIシステムは金融、医療、法律などの分野で重要な意思決定を行うためにますます利用されている。マール氏は、幻覚は誤った選択につながり、深刻な結果をもたらす可能性があると述べている。

そして、前述の2つの訴訟事例が示すように、不正確または誤解を招く出力は、AI開発者とユーザーを潜在的な法的責任にさらす可能性がある。

マール氏は、幻覚を減らすためにこれらのモデルを改善するための4つの方法を推奨している。

1つ目は、トレーニングデータの改善だ。

「AIシステムが多様で正確、かつ文脈的に関連性のあるデータセットでトレーニングされることを確実にすることで、幻覚の発生を最小限に抑えることができる」と彼は述べている。

そして、「レッドチーム演習」がある。 AI開発者が敵対的なシナリオをシミュレートし、AIシステムの幻覚に対する脆弱性をテストし、モデルを反復的に改善していく場合。

3つ目は透明性、つまりAIモデルの動作方法と限界に関する情報をユーザーに提供すること。Marr氏は、これによりユーザーがシステムを信頼すべきタイミングと、追加の検証を求めるべきタイミングを理解するのに役立つと述べている。

最後に、彼は「人間をループに入れる」ことを提案している。つまり、AIシステムの出力を検証するために人間のレビュー担当者を組み込むことで、幻覚の影響を軽減し、テクノロジー全体の信頼性を向上させることができる。

Marr氏は、「幻覚の原因を理解し、その発生を軽減するための研究に投資することで、AI開発者とユーザーは、これらの強力なツールが責任を持って効果的に使用されるように貢献できる」と結論付けている。

あるいは、ChatGPTや同様のチャットボットのユーザーは、Chaitram氏のアドバイスに従うことができる。

判事は判決の中で、この事件は「法律調査に関しては、現代の技術の効率性にも古き良き自主的な読書の要素を注入する必要がある」ということを「タイムリーに思い出させるもの」だと述べた。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd