人工知能(AI)企業Anthropicは、未知の脅威アクターが同社のClaudeチャットボットを活用し、「サービスとしての影響力」作戦でFacebookとXの正規アカウントに接触していたことを明らかにした。
金銭目的とされるこの高度な活動では、同社のAIツールを使用して2つのソーシャルメディアプラットフォームで100の異なるペルソナを編成し、「政治的に連携したアカウント」のネットワークを構築し、「数万」の正規アカウントと接触していたとされている。
Anthropicの研究者によると、現在阻止されているこの作戦は、活力よりも持続性と長期性を重視し、欧州、イラン、アラブ首長国 連邦(UAE)、ケニアの利益を支持または損なう穏健な政治的見解を広めようとしていたという。
これらには、UAEを優れたビジネス環境として宣伝しつつも欧州の規制枠組みを批判すること、欧州の視聴者向けにエネルギー安全保障に関する物語を、イランの視聴者向けに文化的アイデンティティに関する物語を重点的に展開することなどが含まれていた。
また、これらの活動は、アルバニアの人物を支持する物語や、特定されていない欧州の国の野党勢力を批判する物語、ケニアの開発計画や政治家を擁護する物語も推進した。これらの影響力行使活動は国家関連のキャンペーンと一致するが、その背後に誰がいるのかは依然として不明だと同社は付け加えた。
同社は、「特に目新しいのは、この活動においてクロードがコンテンツ生成だけでなく、ソーシャルメディアボットアカウントが本物のソーシャルメディアユーザーの投稿にコメント、いいね、または再シェアするタイミングを決定するためにも使用されていた点だ」と指摘した。
「クロードは、政治的な動機を持つペルソナに基づいて、ソーシャルメディアボットアカウントがどのような行動を取るべきかを決定するオーケストレーターとして利用された。」
クロードを戦術的なエンゲージメント意思決定者として活用していたにもかかわらず、チャットボットはペルソナの音声と母国語で適切な政治的な応答を生成し、2つの一般的な画像生成ツール用のプロンプトを作成するために利用されました。
この作戦は、様々な国にまたがる様々な顧客に対応する商用サービスによるものとみられています。このプログラマテ ィックフレームワークを使用したキャンペーンが少なくとも4つ確認されています。
「この作戦は、ペルソナ管理に高度に構造化されたJSONベースのアプローチを導入し、プラットフォーム間の一貫性を維持し、本物の人間の行動を模倣した一貫したエンゲージメントパターンを確立しました」と、研究者のケン・レベデフ氏、アレックス・モワ氏、ジェイコブ・クライン氏は述べています。
「このプログラマティックフレームワークを使用することで、オペレーターは効率的に取り組みを標準化・拡張し、複数のアカウントにわたってペルソナ属性、エンゲージメント履歴、ナラティブテーマを体系的に追跡・更新できるようになりました。」
[
](h (ttps://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-1vRw02sq1ySppyUAUSf83eVbtG4q4X-6vQlxuMC53EfE89yGX75bRY64fsgzVh9lNaL4ra1s9KXz1MZ9GAczDZbnJ1reeey9CApPUn3qlcmSOVOUqMRb1Epq6G30VRn5fghodeAqNtOeAn_sptUtzXRmL9foKw-UinpooSsttCWzBFgFoxhyphenhyphenVgoeXcAh/s728-rw-e365/ai-tool.jpg)
もう一つこのキャンペーンの興味深い点は、自動アカウントに対し、他のアカウントからボットではないかと非難された際に、ユーモアと皮肉を込めて返答するよう「戦略的に」指示していた点です。
Anthropic社は、この作戦は、関係構築とコミュニティ統合を軸とした影響力行使活動を評価する新たな枠組みの必要性を浮き彫りにしたと述べています。また、AIによって影響力行使活動のハードルがさら に下がるにつれ、今後数年間で同様の悪意ある活動が蔓延する可能性があると警告しています。
同社はまた、高度な脅威アクターが自社のモデルを使用してセキュリティカメラから漏洩したパスワードやユーザー名をスクレイピングし、盗まれた認証情報を用いてインターネットに接続している標的を総当たり攻撃する手法を考案したことを公表しました。
この脅威アクターはさらに、Claude氏を雇い、Telegramに投稿された情報窃盗ログの投稿を処理し、ウェブサイトから標的のURLをスクレイピングするスクリプトを作成し、検索機能を向上させるために自社のシステムを改良していました。
2025年3月にAnthropicが確認した他の2つの悪用事例は以下の通りです。
- 東欧諸国の求職者を狙った詐欺のコンテンツを強化するためにClaudeを利用した採用詐欺キャンペーン
- 初心者の攻撃者がClaudeを利用して技術力を高め、ダークウェブをスキャンし、セキュリティ制御を回避して侵害されたシステムへの長期的な持続アクセスを維持できる、検出不可能な悪意のあるペイロードを生成する能力を備えた、自身のスキルレベルを超えた高度なマルウェアを開発しました。
Anthropicは、「この事例は、AIが悪意のある攻撃者の学習曲線を平坦化する可能性を示しています。これにより、技術的知識が限られている個人でも高度なツールを開発でき、低レベルの活動からより深刻なサイバー犯罪活動への進展を加速させる可能性があります」と述べています。