先週公開されたNewsGuard監査により、西側諸国のAIチャットボットのほとんどが知らないうちにロシアのプロパガンダを広めているという憂慮すべき傾向が明らかになった。「真実」を意味するロシア語「プラウダ」として知られるモスクワを拠点とする偽情報ネットワークは、検索結果やウェブクローラーにクレムリン支持の虚偽を氾濫させ、AIシステムが誤解を招くような物語を吐き出している。2024年だけで360万件の記事を公開したプラウダネットワークは、人工知能を活用してモスクワの影響力を拡大し、前例のない規模にまで拡大している。
監査の結果、10の主要AIチャットボットがプラウダが推奨する虚偽の情報を33%の割合で繰り返していたことが明らかになった。驚くべきことに、これらのチャットボットのうち7つはプラウダのサイトを正当な情報源として直接引用していた。電子メールのやり取りで、NewsGuardアナリストのイシス・ブラチェスは、この調査では虚偽情報の流れに最も影響を受けやすいAIシステムの「名前」は挙げていないが、脅威が広範囲に及んでいることを認めていると書いている。
「私たちの調査では、ロシアの影響力作戦は、人間の読者を直接標的にするのではなく、AIモデルを操作する方向に手法をシフトしており、はるかに大きな規模でそれを行っていることが示唆されています」とブラチェスは説明した。
ロシアは「AIモデルを使用する人は誰でもロシアのプロパガンダに遭遇する可能性がある新しい戦略を採用しています。特に懸念されるのは、この操作が微妙で簡単には見えないことです。これは、ユーザーが気付かないうちにAIの応答に影響を与える、舞台裏で動作する根本的な問題です」と彼女は付け加えた。
新たな AI の脅威 --- LLM グルーミング
発覚した最も憂慮すべき慣行の 1 つは、NewsGuard が「LLM グルーミング」と呼ぶものです。この戦術は、ChatGPT、Claude、Gemini、Grok 3、Perplexity などの AI モデルがトレーニングするデータセットに偽情報を大量に流し込み、意図的に欺く行為と説明されています。
サインアップすることで、このニュースレター、Forbes とその関連会社の提供に関するその他の更新、当社の 利用規約 (仲裁による個別の紛争解決を含む) を受け取ることに同意し、当社の プライバシー ポリシー を承認したことになります。
Blachez 氏は、このプロパガンダの積み重ねは、AI 出力を親ロシア派の視点に合わせるように偏向させることを目的としていると指摘しました。 Pravda のアプローチは系統的であり、49 か国で数十の言語で公開されている 150 の Web サイトの広大なネットワークに依存しています。
「LLM グルーミングとは、AI モデルのトレーニング元となるデータを意図的に操作し、最終的には視点 (この場合はロシアのプロパガンダ) を推し進める目的で出力を変更することです。Pravda ネットワークは、多数の Web サイト ドメインで大量の虚偽情報を公開して検索結果を飽和させ、検索エンジン最適化戦略を活用してトレーニング データを集約する Web クローラーを汚染することでこれを実行します」と彼女は書いています。
彼女は、この取り組みの規模と洗練さにより、AI 企業が他のチャネルを通じて虚偽の物語が継続的に浸透するリスクを負うことなく Pravda サイトを単純にブロックすることは困難であると付け加えました。
この報告書は、ウクライナのウォロディミル・ゼレンスキー大統領がウクライナで米国のドナルド・トランプ大統領のTruth Socialアプリを禁止したという虚偽の主張の例を挙げている。10個のチャットボットのうち7個がこの虚偽を繰り返し、一部はプラウダ紙の記事を情報源として直接引用していた。この種の誤情報ロンダリングは、AIの根本的な弱点、つまり、十分なガードレールがなければ信頼できる情報源と信頼できない情報源を区別できないという弱点を悪用している。
AIユーザーと企業にとってこれが意味すること
この偽情報の氾濫の影響は大きい。AIツールが日常生活にますます統合されるにつれて、外国の事業者が国民の認識を変えたり再構築したりするリスクは比例して増大する。ブラチェス氏は、AI企業はこの脅威に対応し、自社のプラットフォームがプロパガンダの甘言で溢れるのを防ぐ必要があると警告している。
「適切な安全策を講じなければ、AI企業はクレムリンの偽情報の目的を果たすリスクがある」と同氏は述べた。
誤情報から身を守るには、ユーザーも役割を果たす必要がある。ブラチェス氏は、特にデリケートな話題やニュース関連の話題については、AIによって生成された情報をクロスチェックすることを個人に勧めている。NewsGuardの誤情報フィンガープリントのようなツールは、明らかに虚偽の主張をカタログ化し、ユーザーが信頼できない情報源を特定して回避するのに役立ちます。
AI 侵入の脅威の増大
Pravda ドメインをブロックするだけでは問題は解決しません。ネットワークは絶えず拡大しており、新しいドメインや新しい名前のサブドメインが定期的に出現しているからです。Blachez 氏によると、コンテンツの量が膨大で (48 時間ごとに 20,000 件を超える記事)、AI モデルが虚偽のストーリーを取り込まないようにすること はほぼ不可能です。
「ネットワークが絶えず拡大していることを考えると、Pravda サイトを単にフィルタリングするだけでは、問題の解決にはなりません」と彼女は言いました。
NewsGuard のレポートは、AI 企業がより堅牢な検証とコンテンツ ソースの実践を採用する緊急性を強調しています。Blachez 氏が指摘したように、リスクは政治的な誤情報だけにとどまりません。Pravda ネットワークが先駆的に採用している手法は、金融市場から健康情報まで、さまざまな問題で AI モデルを操作するために他の悪意のある行為者に利用される可能性があります。
脅威は明らかです。 AI企業が行動を起こさなければ、情報を民主化するために設計されたツールが世界規模で偽情報の経路になる可能性がある。