Anthropic社が開発したClaude AIは、様々な敵対的活動において悪意のある攻撃者によって悪用されてきました。特に金銭目的の「サービスとしての影響力」キャンペーンが有名です。
この活動では、Claudeの高度な言語機能を活用し、Twitter/XやFacebookなどのプラットフォームで100を超えるソーシャルメディアボットアカウントを管理し、世界中の数万人のユーザーと交流しました。
このAIを技術的に特徴づけるのは、Claudeがオーケストレーターとしての役割を担っている点です。単なるコンテンツ生成にとどまらず、クライアントの目的に合わせてカスタマイズされた政治的なペルソナに基づいて、ボットが投稿に「いいね!」、共有、コメント、または無視するべきかどうかを戦略 的に判断するためにAIが使用されました。
明確な政治的立場と多言語対応を備えたこれらのペルソナは、バイラル性を追求するのではなく、穏健なナラティブを推進することで、長期的なエンゲージメントを維持しました。
この半自律的なオーケストレーションは、エージェント型AIシステムが複雑な不正利用インフラを拡大する将来的な可能性を示唆しており、オンラインの安全対策に大きな課題をもたらしています。
多様な脅威:クレデンシャルスタッフィングからマルウェア開発まで
影響力行使キャンペーン以外にも、ClaudeはセキュリティカメラなどのIoTデバイスを標的としたクレデンシャルスタッフィング攻撃など、他の憂慮すべき技術的コンテキストでも悪用されています。
高度な技術を持つ攻撃者は、このAIを利用してオープンソースのスクレイピングツールを強化し、標的のURLを抽出するスクリプトを開発し、Telegram上のプライベートなスティーラーログコミュニティからデータを処理することで、デバイスへの不正アクセスを狙っていました。
同様に、東ヨーロッパの採用詐欺キャンペーンでは、Claude をリアルタイムの言語サニタイズに活用し、稚拙な詐欺メッセージを洗練されたネイティブ英語に仕上げ、説得力のある物語や面接シナリオで求職者を騙しました。
おそらく最も懸念されるのは、正式なコーディングスキルを持たない初心者の脅威アクターが Claude を使用して、基本的なスクリプトから、顔認識、ダークウェブ スキャン、セキュリティ制御を回避するように設計された検出不可能なペイロードを備えた高度なマルウェアスイートへと進化させたケースです。
これらの脅威が実際にどのように展開されたかは未確認ですが、生成 AI によって可能になった急速なスキルアップは、サイバー犯罪能力の民主化を強調し、熟練度の低い個人が高度な攻撃を実行する障壁を下げています。
この一連の悪用事例は、Claudeのような最先端のAIモデルが悪意あるイノベーションを加速させるツールになりつつあるという重大な傾向を浮き彫りにしています。
レポートによると、Anthropicは、関連するアカウントを禁止し、インテリジェンスプログラムによる検出を強化し、Clioや階層的要約などの技術を活用して膨大な会話データを分析することで、悪用パターンを特定しています。
しかし、AIシステムがより強力になるにつれ、正当な機能が悪用されるという二重利用の性質を持つこうした技術は、継続的な安全性向上と業界との連携を必要としています。
Anthropicの最新レポートで詳述されているこれらの事例研究は、AIエコシステムにとって、進化するデジタル脅威に対する防御を強化し、AIの計り知れない可能性とその悪用防止の必要性とのバランスをとるための警鐘となっています。