
人工知能の威力と落とし穴の両方に疑問があるなら、ぞっとするような裁判例があります。
有名なモーガン&モーガン法律事務所が、クライアントに有利とされる前例として 9 件の訴訟を引用した法的要約を提出した件です。
問題は、訴訟のうち 8 件が完全に架空のものでした。存在しないのです。
オーランドに拠点を置くモーガン&モーガンの法律チームのメンバーが、訴訟書類の作成に人工知能を利用していたことが判明しました。そして、チャットボットが役立つかもしれない判例を探しに行ったところ、どうやらそれをでっち上げたようです。テクノロジー業界では、こうした AI が生成した詳細な嘘を「幻覚」と呼んでいます。
まさに「人工」知能です。
チャットボットは、ワイオミング州対米国エネルギー省のような原告と被告をでっち上げただけでなく、日付や訴訟番号まででっち上げました。これは非常に具体的な馬鹿げた話です。
私は事務所の創設者ジョン・モーガンに、どうしてこんなことが起きたのか尋ねた。
彼の答えは「うちの弁護士の一人がAIだけに頼って、しくじった」だった。
ただし、「しくじった」とは言わなかった。
ジョンはAIの助けを借りずにその発言をしたと言っても過言ではないと思う。
事務所は基本的に同じことを提出書類で述べ、基本的に全面的に謝罪し、裁判所の慈悲に身を委ねた。
「この非常に残念な提出書類は、人工知能が日常業務とより密接に絡み合う世界に入るにあたり、私と事務所にとって厳しい教訓となる」と、この事件の主任弁護士であるジョンの息子マイクは宣言的提出書類に記した。「人工知能は強力なツールだが、慎重に使用しなければならないツールだ。法律には近道はない。私と事務所を代表して、裁判所と相手方弁護士に心からの謙虚な気持ちで謝罪する」。
ワイオミング州の法廷で繰り広げられているこの法廷ドラマは、主流メディアではまだあまり注目されていない。しかし、法律界とテクノロジー界では、大騒ぎになっている。
「AIがホバーボードの激しい訴訟で捏造された事例を引用し、弁護士は裁判官の怒りに直面」と、テクノロジーニュースサイトThe Registerは大声で報じた。
「大手 法律事務所のChatGPT失敗。偽の事例を引用することがなぜそれほど難しいことではないのか?」と、法律アナリストのDavid Lat氏はOriginal Jurisdiction substackで質問した。
これは良い質問だ。そして、近道を急いで行い、自分以外の脳に頼ろうとする人々への教訓となる。
この訴訟は、モルガンのクライアントがホバーボードメーカーと、炎上したとされるホバーボードを販売したウォルマート チェーンを訴えているものです。ウォルマートの弁護士がモルガンのチームが引用した多数の判例を精査しようとしたところ、そのほとんどが存在しないことが判明しました。
法律用語では、事後的マラーキー (偽証) だと思います。
当然ながら、裁判官は面白くなく、モルガンのチームに説明を求めました。
そのとき、南フロリダのモルガンの弁護士、ルドウィン アヤラが 白状し、責任を認め、、AI が生成した訴訟に頼ったのは「見当違い」で、情報を「検証できなかった」と述べました。
「この過ちと、私が引き起こしたかもしれないあらゆる恥辱について、この裁判所、私の事務所、被告の代理人を務める同僚たちに、心から悔い改めの気持ちで謝罪します」とアヤラ氏は2月13日の提出書類に記した。「先週は私にとって、職業的にも個人的にも非常に屈辱的な1週間でした。二度と繰り返さないと保証できます。」
裁判官は率直さと悔恨を評価したようだ。米国地方裁判所のケリー・ランキン判事は月曜日、アヤラ氏はこの事件にこれ以上取り組むことはできないとの 判決を下したが、モーガン氏と関係する他の監督弁護士に1,000ドルの罰金を科しただけで、事務所が白状し、謝罪し、相手側弁護士の費用を負担することを申し出たことを評価した。裁判官は、他の偽のAI生成事件を引用していたことが発覚した弁護士は、同じことをしなかったと指摘した。
そう、その通り。_他の_事件だ。悲しいことに、これは初めてではない。 2023年の訴訟では、アビアンカ航空を訴えていた男性の代理人弁護士が、ChatGPTが作り上げた架空の訴訟を引用した法的意見書も提出した。ロイター通信が弁護士を対象に調査したところ、ほぼ3分の2がAIに助けを求めたと答えた。
私の個人的な経験では、AIに頼る人の多くはそれを誇らしげに行い、頼らない人は馬鹿だとよく言う。
そうかもしれない。とはいえ、事実を得るために無意識に AI に頼ったり (あるいは Facebook の投稿や親戚のホットな意見に頼ったり) しない私たちは、他の誰かが権威を持って提供した偽の情報を説明しようとしたりすることは決してないでしょう。
この話で最も恐ろしいことの 1 つは、私や他の人たちがチャットボットに偽の事件についてさらに詳細を尋ねたとき、チャットボットがそれらの詳細も「幻覚」したことです。
確かに、AI に 1 つの嘘について尋ねれば、実際には起こっていないこれらの事件を担当したとされる実際の裁判官の名前など、より複雑な嘘が生成される場合があります。
嘘に関する最大の問題の 1 つは、嘘をついた人が最初の嘘を正当化するためにさらに多くの嘘をでっち上げることが多いことです。まあ、どうやらこれは人間だけの問題ではなく、私たちを出し抜くはずのテクノロジーにとっても問題なようです。これは、聞くものすべてを精査する十分な理由です。