概要: 戦略対話研究所(ISD)の研究者らは、「オペレーション・オーバーロード」(別名マトリョーシカ、ストーム1679)は、AI生成のナレーションやビジュアルインパーソナリティを駆使し、虚偽または扇動的なコンテンツをプラットフォーム間で拡散する、ロシアと連携したキャンペーンであると報告している。ISDが2025年初頭に分析したこのキャンペーンには、機関や個人を標的とした少なくとも135件の個別の投稿が含まれており、その中には、USAID(米国国際開発庁)が資金提供した著名人のウクライナ旅行を偽って主張する動画も含まれていた(インシデント1061参照)。
Editor Notes: Timeline note: Although individual Operation Overload posts circulated prior to May 2025, this record uses the publication date of ISD's comprehensive report (05/06/2025) as the temporal anchor. The report can be accessed at the following URL: https://www.isdglobal.org/digital_dispatches/stolen-voices-russia-aligned-operation-manipulates-audio-and-images-to-impersonate-experts/. It consolidates evidence of coordinated AI-generated disinformation activity, including impersonation of institutions and individuals, across the first quarter of 2025. Please also refer to (1) Incident 909: Matryoshka Campaign Allegedly Uses Deepfakes to Impersonate Academics for Pro-Russian Propaganda; (2) Incident 929: Sustained AI-Driven Russian Disinformation Campaigns Doppelgänger, Storm-1516, and Matryoshka Reportedly Disrupting German Federal Elections; and (3) Incident 931: Reportedly Manipulated TikTok Videos Misrepresent Anti-AfD Protests as Far-Right Rallies. While 931 has not been explicitly attributed to Operation Overload (also known as Matryoshka or Storm-1679), its thematic content and manipulation tactics appear adjacent. (No direct forensic or institutional linkage has been established as of this writing.) (4) See also Incident 1061 for a specific archive of reporting on the USAID celebrity impersonation incident.
Alleged: Various generative AI developers , Unknown voice cloning technology developers と Unknown deepfake technology developers developed an AI system deployed by Storm-1679 , Russian-aligned actors , Operation Overload と Matryoshka, which harmed Western support for Ukraine , Voters in Germany , USAID , Ukrainian refugees , Truth , News organizations , Law enforcement agencies , Journalists , General public , Fact-checkers , European politicians , Electoral integrity , Democracy と Academics.
関与が疑われるAIシステム: X (Twitter) , Unknown voice cloning technology , Unknown deepfake technology , Telegram , Social media platforms と Bluesky
インシデントのステータス
インシデントID
1060
レポート数
3
インシデント発生日
2025-05-06
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
米国国際開発庁(USAID)がベン・スティラー、アンジェリーナ・ジョリー ら俳優たちにウクライナ渡航費として数百万ドルを支払ったという虚偽の主張を含むこの動画は、E!Newsのクリップのように見えたが、実際には同エンターテイメントチャンネルでは放映されなかった。
実際、この動画は最初にXに掲載された。研究者らによると、このアカウントはロシアの偽情報を拡散しているとされている。
数時間後、イーロン・マスク氏の注目を集め、同氏はそれを再投稿した。トランプ大統領の息子ドナルド・トラン…
ロシアの偽情報は必ずしも効果がないわけではない。
新たな報告書で分析された、クレムリンと連携したプロパガンダ投稿135件のうち、134件はソーシャルメディアユーザーにほとんど受け入れられず、主にボットネットワークによって「いいね!」や再シェアされただけだった。しかし、1件は大きな反響を呼んだ。そして、人工知能によって偽情報の作成コストが削減されたため、専門家は、この1件の成功が、おそらくロシアの資金提供者による陰謀論の目にキャンペーン全体の勝利を映す可能性が高いと指摘している…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください