
「国民のために」戦う「アメリカ最大の傷害事件専門法律事務所」を自称するモーガン・アンド・モーガンは今月、AIが作り出した判例を盲目的に引用する弁護士が1人でもいると、全国規模の法律事務所全体の評判を落とすリスクがあることを身をもって学んだ。
裁判所に提出された書簡で、モーガン・アンド・モーガンの最高変革責任者ヤス・イタヤクマール氏は、同事務所の1,000人を超える弁護士に対し、AIが作り出した偽の判例を裁判所の書類に引用すると「解雇」を含む懲戒処分の対象となる可 能性があると警告した。
「これは深刻な問題だ」とイタヤクマール氏は記した。 「法律業務の誠実さと評判はこれにかかっています。」
モーガン&モーガンのAI問題は、ウォルマートが欠陥のあるホバーボード玩具の設計に関与し、それが家族の家の火災の原因になったとする訴訟で発端となった。経験豊富な訴訟弁護士であるにもかかわらず、この訴訟の主任弁護士であるルドウィン・アヤラ氏は、ウォルマートの弁護士がChatGPT以外で見つけることができなかった8つの訴訟を裁判所の書類で引用した。
ウォルマートの弁護士は、これらの「引用された訴訟は、人工知能の世界以外にはどこにも存在しないようだ」と述べ、裁判所に制裁を検討するよう求めた。
これまでのところ、裁判所は制裁の可能性について判決を下していない。しかし、アヤラ氏はすぐにこの訴訟から外され、直属の上司であるT・マイケル・モーガン弁護士が代わりに担当した。モーガン氏は、裁判所の時間を無駄にしたアヤラ氏の偽の引用に「非常に恥ずかしい」と表明し、誤った裁判所提出書類への返答に関連するすべての料金と経費を支払うことでウォルマートの弁護士と合意した。モーガン氏は、この訴訟は彼の会社と「すべての会社」の両方にとって「教訓」となるべきだと裁判所に語った。
ロイターは、AI幻覚事件を不適切に引用した弁護士が過去2年間で少なくとも7件の訴訟を混乱させていることを発見した。弁護士の中には制裁を受けた者もいる。その中には、チャットボットの「意味不明な言葉」を書類に引用したとして弁護士に5,000ドルの罰金を科した初期の事例(昨年6月)も含まれる。また、ロイター通信が報じたところによると、テキサス州の少なくとも1件の事例では、弁護士が2,000ドルの罰金を科され、法務アプリケーションにおける生成AIの責任ある使用に関するコースへの参加を義務付けられた。しかし、もう一つの注目を集めた事件では、ドナルド・トランプ氏の元弁護士マイケル・コーエン氏が、刑事税金および選挙資金訴訟での自身の弁護に役立てるために自分の弁護士に誤って3件の偽の訴訟引用を与えた後、制裁を免れた。
裁判所への提出書類で、モーガン氏はウォルマート事件におけるAI引用の責任はアヤラ氏のみにあると説明した。モーガン氏は、他の関係者は、誤った裁判所提出書類に「幻覚コンテンツはおろか、AI生成コンテンツが含まれていた」ことを「知らなかったし、気付いてもいなかった」と述べ、もし知っていたら、アヤラ氏にすべての引用を独自に検証するよう要求していたと主張した。
「裁判所が捏造された判例に依拠し、それを我々の判例法体系に組み込むリスクは、吐き気を催すほど恐ろしい考えだ」とモーガン氏は述べ、AIは「不注意に使用すると危険」になり得ることを認めつつ、裁判所に「深く」謝罪した。
さらに、モーガン氏は、2024年11月から弁護 士が事件を調査する際にサポートすることを目的としており、弁護士に代わるものではないAIツールについて、弁護士のトレーニングにもっと力を入れなければならないことは明らかだと述べた。同社は弁護士に対し、AIは幻覚を起こしたり情報を捏造したりできると警告していたはずであるが、アヤラ氏は衝撃的なことに、同社の「社内AIサポート」は調査だけでなく弁論書の作成も「十分にできる」と「誤って」信じていたと主張した。
「人工知能が日常業務にさらに深く絡み合う世界に入るにあたり、この非常に残念な申し立ては私と当事務所にとって厳しい教訓となる」とモーガン氏は裁判所に語った。「人工知能は強力なツールだが、慎重に使用しなければならないツールだ。法律には近道はない」
サフォーク大学法学部の学部長アンドリュー・パールマン氏は、法廷での責任あるAIの使用を提唱しており、出力を検証せずにChatGPTやその他のAIツールを引用する弁護士は「無能であり、まったくの無能だ」とロイター通信に語った。
モーガン&モーガンはアルスからのコメント要請を断った。
法律事務所がAI引用防止のため変更を実施
Morgan & Morganは、事務所の他の誰もAyalaと同じ間違いをしないようにしたいと考えている。すべての弁護士に送った手紙の中で、Ithayakumar氏はAIを信頼できるケース調査や弁論要旨の作成にのみ使用することはできないと繰り返した。「AIはもっともらしい回答を生成する可能性があるが、それは完全に捏造された情報である可能性がある」
「すべての弁護士が知っている(または知っているべきである)ように、AIは時々、捏造された引用、判決、さらには直接引用を含む判例を作り上げることが文書化されている」と同氏の手紙には書かれている。「以前に指示したように、引用対象のケースを特定するためにAIを使用する場合は、すべてのケースを個別に検証する必要があります。」
AIの法的問題を研究する法学教授のHarry Surden氏はロイター通信に対し、「弁護士は常に間違いを犯してきた」と語ったが、法律分野でAIツールへの依存が高まるにつれて、弁護士はAIリテラシーを高めて「ツールの長所と短所」を完全に理解する必要があると示唆した。 (2024年7月のロイターの調査によると、2023年に専門家がAIによるパラダイムシフトを示唆法律分野で起こると示唆した後、弁護士の63%がAIを使用し、12%が定期的に使用しています。)
Morgan & Morganでは、2025年には全国規模の事務所全体でより優れたAIトレーニングが必要であることが明らかになりました。Morganは裁判所に対し、事務所の技術チームとリスク管理メンバーが「将来的に同様の事態が発生しないようにするためのさらなるポリシーについて話し合い、実施する」ために会合したと述べました。
さらに、AI の幻覚の可能性を認めるチェックボックスが追加され、事務所の弁護士が社内 AI プラットフォームにアクセスする前にこれをクリックする必要がある。
「さらに、人工知能の誤った使用を防ぐための安全策とトレーニングが検討されている」とモーガン氏は裁判所に語った。
これらの取り組みがモーガン&モーガンの制裁回避に役立つかどうかは不明だが、イタヤクマール氏は、制裁と同程度に事務所や個々の弁護士の信用が失墜する可能性があると示唆した。
「AI に盲目的に依存することは、検証されていない訴訟を引用するのと同じだ」とイタヤクマール氏は弁護士らに語り、AI の出力を検証するのは弁護士の「責任と倫理的義務」であると述べた。 「AI 検証要件に従わない場合、裁判所による制裁、職務上の懲戒、事務所による懲戒(解雇を含む)、評判の低下につながる可能性があります。すべての弁護士は、業務を行う管轄区域における AI 関連の特定の規則と命令を常に把握し、これらの義務を厳守する必要があります。」