南アフリカの人工知能(AI)への取り組み方を定めることを目的とした国家政策文書が、AIにつきものの最もよく知られた落とし穴の一つに陥ってしまった可能性がある。
News24は独占的に、この「国家AI政策草案」で引用されている学術論文の一部が完全に架空のものであることを明らかにした。皮肉なことに、この事態が起こった最も可能性の高い説明は、AIツールがこれらの論文を幻覚として作り出したということだ。
今月初め、ソリー・マラツィ通信・デジタル技術大臣は、この政策草案を官報に掲載し、パブリックコメントを募集した。文書には、AIに関する国家的な優先事項と規範を確立し、「分野固有の動向」を認識する ことが目的だと記されている。
この政策草案は、AIを規制するための多数の新たな機関の設立を提案している。これには、AI倫理委員会、AI安全研究所、そして「AIによる結果によって損害を受けた」個人や団体への補償を担うAI保険スーパーファンドが含まれます。
News24は、政策草案の末尾に引用されている67件の参考文献を精査しました。そのうちのいくつかは、存在しない学術誌、あるいは既存の学術誌に掲載されていない論文を引用していました。
以下に5つの例を示します。
Babatunde, O., & Mnguni, P. (2023). "Challenges and Opportunities in Regulating AI: Perspectives from South Africa." AI Policy Journal, 2(3), 143-156.
- News24は、AI Policy Journalという雑誌が存在するという証拠を見つけることができませんでした。このタイトルの学術論文は、主要な学術誌には掲載されていません。
Burman, A., & Sewpersadh, K. (2022). "Legal Frameworks for AI in South Africa: Balancing Innovation and Accountability."南アフリカ哲学ジャーナル、41(2)、207-217頁。
―南アフリカ哲学ジャーナル(SAJP)は確かに存在する。しかし、編集長のドミニク・グリフィス氏はNews24に対し、「そのような論文は当ジャーナルには掲載されていない」と述べた。グリフィス氏によると、「バーマン」という姓の人物がSAJPに論文を発表したことは一度もないという。「この記述は間違いなくAIの作り話だ」と彼は述べた。
Karr, V., & Smith, L. (2023). 「アフリカにおけるデジタル権利とAIガバナンス」。アフリカ法ジャーナル、67(1)、95-108頁。
『アフリカ法ジャーナル』は実在しますが、当該論文は第67巻第1号には掲載されていません(https://www.cambridge.org/core/journals/journal-of-african-law/issue/195CEEFB98AA2DDA8325774CF2A003C8)。また、同じタイトルの論文は他のどの学術誌にも見当たりません。
Cavaliere, F., McGregor, R., & Hersh, M. (2022). "新興経済国における人工知能と倫理:南アフリカの事例." AI & Society, 37(4), 565-583.
『AI & Society』の編集長であるKaramjit Gill氏は、同誌にこの論文が掲載されているのを確認できないと述べています。News24もGoogle Scholarでこの論文を見つけることができませんでした。
Smith, M., & Mahomed, R. (2021). "南アフリカにおけるAIの社会正義への影響" Journal of Ethics and Social Philosophy, 18(3), 313-329.
― Journal of Ethics and Social Philosophy (JESP) の編集長であるルイーズ・シンプソン氏は、当該論文は存在しないことを確認した。「JESP は、当該論文のタイトル、または当該著者による論文を、当該号、あるいは他の号にも掲載していません」と彼女は述べた。
リストに掲載されている情報源の中には、政府の調査の一環として提出されたものや、学術論文を装ったものではないものもあった。
News24 は、リストに掲載されている参考文献のうち、いくつが架空のものであるかを確実に確認することはできなかったが、少なくとも6つは捏造されたものだった。
ステレンボッシュ大学の南アフリカ経済史家であり、著者でもあるヨハン・フーリエ氏が、参考文献の確認に協力した。
「私は2つのことをしました。まず、3つの引用文献を自分で確認しました。私も、それらが存在しないという結論に至りました。次に、AIツール(https://citetrue.com/)を使って検証したところ、3つとも『一般的な学術データベースには存在しない』という結論が出ました」とフーリエ氏は述べた。
「つまり、それらは捏造されたものです。」
News24は、通信・デジタル技術省に対し、国家AI政策草案の本文または引用文献の作成にAIツールを使用したかどうか、あるいはその両方について確認を求めた。また、当該論文が存在することを示す証拠の提示も求めた。
同省は、参考文献リストの正確性を確保するため、また「軽微な引用文献の不一致」がどのように発生したのかを含め、現在精査中であると回答した。
同省はまた、政策草案の策定プロセスは2024年に開始され、文書は何度も改訂を重ねてきたと述べた。研究、専門家の意見、業界関係者の意見を取り入れたとしている。
同省は、不一致の原因究明には時間が必要だと述べたものの、その重要性を軽視した。
「これらの技術的な参考文献に関する問題は、国家AI政策枠組み案の内容、整合性、政策方向性に影響を与えないことを確認できます」と述べた。
無責任
ノースウェスト大学AIハブ所長で哲学教授のアンネ・フェルホーフ氏は、AIテキストにはしばしば捏造された情報源や参考文献が含まれると指摘した。
「これは、AIアプリケーションが常に答えを提供するようにプログラムされているためです。大規模言語モデルに基づく予測ツールとして、AIはテキストを信頼性、権威性、科学的に見せるためにどのような情報源や引用を用いるかを予測します」とフェルホーフ氏は述べた。
フェルホーフ氏は、学術研究において架空の情報源を含めることは「AIの無責任な使用を示すものだ」と述べた。
「AIの関与を開示せ ずに作成された、不正確な引用や情報源を含む国家AI政策枠組み案のような事例は、AIの非倫理的かつ無責任な使用の可能性を反映している」とフェルホーフ氏は述べた。フーリエ氏は、AIモデルによる誤作動自体は驚くべきことではないが、監視体制が全くなかったように見えるのは驚きだと述べた。
「これらのツールは強力です。企業、研究機関、政府は既に利用しています。しかし、その真価は、人間の厳密な監視にかかっています。
このような捏造された引用は、ツールが十分な注意を払って使用されていなかったことを示唆しています。その結果、残念ながら、しかし理解できることですが、疑念は誤りそのものだけでなく、文書全体の信頼性にまで及ぶでしょう」とフーリエ氏は付け加えた。
カタリーナ・モーザーとの共同執筆