Loading...

人工知能(AI)の世界で奇妙な現象が起きている。ボットが強力になるにつれ、これまで以上に多くのミス(いわゆる「幻覚」)を生み出しているとニューヨーク・タイムズが報じている。そして、技術ライターのケイド・メッツ氏とカレン・ワイズ氏の記事で説明されているように、「その理由は完全には解明されていない」。例えば、Open AIが導入した新しく改良されたo3推論システムは、著名人に関する質問を含むベンチマークテストで33%の確率で幻覚を起こしたと報告されている。これは憂慮すべき事態だが、さらに頭を悩ませるのは、そのエラー率が以前の推論システムの2倍であることだ。他の企業での同様の統計は、これが業界全体の傾向であるという考え を裏付けている。
実例として、プログラマー向けツール「Cursor」のAIボットが、新しい社内規定により複数のコンピューターでCursorを使用することが禁止されていることを顧客に通知した事例を紹介する。激しい反発を受け、最高経営責任者(CEO)はそのような規定は存在しないことを説明せざるを得なかった。根本的な問題は、ボットが膨大な量のデータの処理に基づいて回答を導き出しており、客観的に何が真実で何が嘘かを判断できないことだ。「私たちが最善を尽くしても、ボットは常に幻覚を見ます」と、企業向けAIツールを開発するVectaraのAmr Awadallah氏はニューヨーク・タイムズ紙に語った。「これは決してなくなることはないでしょう。」
- Victor TangermannによるFuturismの投稿では、上記のすべてが業界にとって深刻な問題であると指摘されています。「要するに、最善の努力にもかかわらず、幻覚はかつてないほど蔓延しており、現時点では技術は正しい方向に向かってさえいません。」
- 昨年、NvidiaのCEOであるJensen Huang氏は、全体像を把握し、ボットが一貫して事実を正しく理解できるようになるまでにはしばらく時間がかかるだろうと予測しました([Tom's Hardware](https://www.tomshardware.com/tech-industry/artificial-intelligence/jensen-says-we-are-several-years-away-from-solving-the-ai-hallucination-problem-in-the-meantime-we-have-to-keep-increasing-our-computation)。 「それが実現できるまでには数年かかると思いますが、その間、私たちは計算能力を増やし続けなければなりません。」