)
ニュース監視サービス NewsGuard の調査によると、OpenAI の ChatGPT を含む主要な生成 AI モデルは、ロシアの誤報を繰り返していると報告されている。
この暴露は、特にユーザーが正確な情報を得るためにチャットボットにますます頼るようになった世界選挙が目立った年に、AI が偽情報を広める役割について懸念が高まる中で起こった。
NewsGuard の調査は、AI チャットボットが誤報を永続させ、検証できるかどうかを調査することを目的としていた。10 種類のチャットボットに 57 のプロンプトを入力することで、これらの AI モデルがロシアの偽情報の物語を 32 パーセントの割合で繰り返していることがわかった。
この調査で使用されたプロンプトは、モスクワから虚偽を広めているとされるアメリカ人逃亡犯ジョン・マーク・ダウガンが広めたとされる誤報の物語に焦点を当てていた。テストされたチャットボットには、ChatGPT-4、You.com の Smart Assistant、Grok、Inflection、Mistral、Microsoft の Copilot、Meta AI、Anthropic の Claude、Google Gemini、Perplexity が含まれていました。
これらのチャットボットによって生成された 570 件の応答のうち、152 件には明白な偽情報、29 件には 免責事項付きの虚偽の主張が繰り返され、389 件には誤情報が含まれていませんでした。誤情報のない応答では、144 件の応答でプロンプトへの回答を拒否するか、245 件の応答で虚偽の主張を否定しました。
NewsGuard は、チャットボットが「Boston Times」や「Flagstaff Post」などのプロパガンダ サイトを認識できず、誤って偽情報の物語を増幅していることを強調しました。これにより、AI プラットフォームによって虚偽が生成され、繰り返され、検証されるという問題のあるサイクルが生まれます。
この調査では、ロシアの偽情報ネットワークに関連する 19 件の重要な虚偽の物語に焦点を当てました。これらには、ウクライナのウォロディミル・ゼレンスキー大統領の汚職疑惑や、政治的に偏った誤情報などが含まれていた。
AI技術が進化を続ける中、世界中の政府は、誤情報や偏見からユーザーを守るためにAIの使用を規制しようと努めている。NewsGuardは、将来の規制措置に影響を与えることを期待して、米国国立標準技術研究所(NIST)の米国AI安全研究所と欧州委員会に調査結果を提出した。
関連した動きとして、米国下院の監視・説明責任委員会は、NewsGuard自体の調査を開始し、検閲キャンペーンにおける潜在的な役割を疑問視している。
これは、監視機関でさえ精査されている情報規制の複雑な状況を浮き彫りにしている。
NewsGuardの調査結果は、情報源としてのAIチャットボットの信頼性について重要な疑問を提起している。これらのツールが日常生活にますます統合されるにつれて、その正確性と公平性を確保することが重要になる。
この研究は、適切な安全対策がなけれ ば、AI モデルが意図せず誤情報の拡散に寄与する可能性があることを示唆しており、これらの技術の継続的な監視と改良の必要性を浮き彫りにしている。