
コロラド州でMyPillowのCEO、マイク・リンデル氏を代理する弁護士2名に対し、連邦判事はそれぞれ3,000ドルの支払いを命じた。2名はAIを用いて、多数の誤りや実在しない判例を引用した裁判所への提出書類を作成したためだ。
デンバー連邦地方裁判所のニーナ・Y・ワン判事は月曜日、クリストファー・カシューロフ氏とジェニファー・デマスター氏が2月に提出した書類には、AIツールによって捏造された偽の訴訟を含む、20件以上の誤りが含まれていたため、裁判所規則に違反したと判決を下した。
ワン判事は判決文の中で、「いかなる反対意見があっ ても、本裁判所は出廷する弁護士に制裁を科すことに何の利益も感じない」と記している。「実際、連邦裁判所は、効率的かつ公正な司法の執行のために、裁判所職員としての弁護士の支援に依存している」。
弁護士が裁判所でAIを使用すること自体は違法ではない。しかし、ワン氏は、弁護士らが、法廷で主張する主張が法的に「十分に根拠がある」ことを証明することを弁護士に義務付ける連邦規則に違反していると判断した。偽造訴訟はこの基準を満たしていないことが判明した。
カシューロフ氏とデマスター氏はNPRのコメント要請に応じなかった。
誤りだらけのこの訴訟記録は、MyPillowの開発者であり、トランプ大統領支持者、そして2020年の大統領選挙に関する虚偽の情報を拡散したことで知られる陰謀論者であるリンデル氏をめぐる名誉毀損訴訟の一部である。先月、リンデル氏はこの訴訟で敗訴した。この訴訟はワン氏の面前で審理されていた。彼は、デンバーに拠点を置くドミニオン・ボーティング・システムズの元従業員であるエリック・クマーに対し、クマー氏とドミニオンが選挙機器を使ってジョー・バイデン氏に票を流したと主張し、200万ドル以上の賠償金を支払うよう命じられた。
ウォータールー大学デイビッド・R・チェリトン・コンピュータサイエンス学部教授であり、ヨーク大学オズグッド・ホール法科大学院の非常勤法学教授でもあるモーラ・グロスマン氏によると、2人の弁護士に対する金銭的制裁と評判の失墜は、他の多くの弁護士と同様に、業務において人工知能(AI)をますます活用している弁護士にとって、厳しい警告となる。
グロスマン氏は、3,000ドルの罰金は「これらの弁護士は単なる知識不足の未熟な弁護士ではないことを考えると、全体としてはかなり軽いものだった。しかし、ここで犯されたような過失は…甚だしいものだった」と述べた。
グロスマン氏によると、弁護士やその他の関係者が訴訟を起こす際に、生成AIの活用が失敗に終わった、注目を集めた事例が数多く発生しているという。全米の法廷では、弁護士が、生成AIによって作成された、実際には存在しない訴訟記録を記載した申立書やその他の訴訟書類を提出したことで、制裁を受けているという状況が見受けられる。
ダミアン・シャルロティン氏は、生成AIが幻覚コンテンツを生み出し、裁判所や法廷が警告などの懲罰を具体的に科した世界中の裁判例を追跡している。木曜日の時点で206件の事例が確認されているが、これは春以降だけでの話だと、同氏はNPRに語った。4月以前には事例は非常に少なかったが、それ以降の数ヶ月は「毎日のように」事例が発生していると同氏は述べた。
シャルロティン氏のデータベースは、幻覚を伴うすべての事例を網羅しているわけではない。しかし同氏は、「実際にはもっともっと多くの事例があると思うが、多くの裁判所や当事者は、関係者全員にとって 非常に恥ずかしいことなので、この問題に対処したくないと考えている」と述べた。
MyPillow訴訟における問題点
ワン判事は今週の命令の中で、弁護士1人あたり3,000ドルの罰金は「本件の弁護人を抑止し、処罰するのに十分な、最も軽い制裁」であると述べた。
判事は、両弁護士がこれらの誤り、特に「存在しない判例を引用したこと」がどのようにして生じたのかについて、適切な説明を一切行わなかったと述べた。
ワン判事はまた、カシューロフ氏とデマスター氏は、申立てが人工知能によって生成されたかどうかについて質問された際に、率直に回答しなかったと述べた。
カシューロフ氏はこれに対し、法廷文書の中で、デマスター氏が「誤って」この申立ての草稿を提出したと述べ、より慎重に編集され、架空の判例が含まれていなかった正しい草稿を提出したと述べた。
しかし、ワン判事は、申立ての提出が「不注意による誤り」であるとは納得していなかった。実際、ワン判事はカシューロフ氏に質問した際に、彼の発言が誠実ではなかったと指摘した。
「本裁判所がカシューロフ氏に対し、反対派の主張が生成型人工知能(GAI)の産物であるかどうかを直接尋ねるまで、カシューロフ氏は実際にGAIを使用していたことを認めなかった」と王氏は記した。
グロスマン氏は、カシューロフ氏と同じ立場にある他の弁護士に対し、隠蔽しようとせず、できるだけ早く裁判官に白状するよう助言した。
「白状しなければ、より厳しい罰則を受ける可能性が高い」と彼女は述べた。
シャーロティン氏は、弁護士などがAIを用いて裁判書類を提出する際に、主に3つの問題を発見した。1つ目は、AIチャットボットによって作成された、あるいは幻覚的に作られた偽の判例である。
2つ目は、AIが実際の判例から偽の引用を作成することである。
3つ目は、より見分けるのが難しいとシャーロティン氏は述べた。引用と判例は正しいものの、引用されている法的論拠が実際には出典となっている判例によって裏付けられていない場合だとシャーロティン氏は述べた。
MyPillowの弁護士を巻き込んだこの訴訟は、人生を変えるようなテクノロジーを歓迎しつつ、法廷で責任ある使用をどう両立させるかという、裁判所と弁護士のジレンマが深刻化していることを示す縮図に過ぎません。AIの利用は、当局がその利用に関するガイドラインを整備するよりも速いペースで拡大しています。
グロスマン氏によると、AIは法廷での証拠提出や被害者影響声明の提供にも利用されています。
CNNの報道によると、今年、ニューヨーク州控訴裁判所の判事は、原告が自ら弁護し、より若くハンサムなAI生成アバターを使って弁護しようとしたことに激怒した。このアバターはすぐに阻止された。
こうした警鐘を鳴らすような出来事が報道されているにもかかわらず、グロスマン氏とシャーロティン氏はともに、AIは弁護士にとって非常に有用なツールであり、裁判での利用は減るどころか、むしろ増えると予測している。
AIの最適な活用方法に関するルールは、管轄区域によって異なります。裁判官は独自の基準を作成し、弁護士や法廷で自らを代理する人に対し、AIが使用された場合にはAIに関する開示書類を提出するよう義務付けている。いくつかの例では、ノースカロライナ州、オハイオ州、イリノイ州、モンタナ州の裁判官が、法廷でのAIの使用に関してさまざまな禁止事項を設けている。法律事務所ロープス・アンド・グレイが作成したAIデータベース[https://www.ropesgray.com/en/sites/artificial-intelligence-court-order-tracker]。
法曹界の全国的な代表機関である米国法曹協会は、昨年、AIの利用に関する初の倫理ガイドラインを発行しました。同協会は、これらのツールは「誤りが生じる可能性があるため、弁護士が[生成型人工知能]ツールによって作成されたコンテンツを無批判に信頼すると、依頼者への不正確な法的助言や、裁判所や第三者への誤解を招く表現につながる可能性がある」と警告しました。
「したがって、弁護士がGAIツールの出力に依拠したり、提出したりすることは、適切なレベルの独立した検証やレビューなしに、適切な弁護を提供する義務に違反する可能性がある」と続けている。
連邦裁判所の証拠規則の改正を検討・勧告する責任を負う証拠規則諮問委員会は、対応が遅く、現在も[証拠としてのAIの利用]に関する改正に取り組んでいる。(https://www.uscourts.gov/sites/default/files/document/2025-05_evidence_rules_committee_agenda_book_final.pdf)
一方、グロスマン氏はAIを 利用するすべての人に対して、次のような提案をしている。「何も信じず、すべてを検証せよ。」