
Lovableは、生成型人工知能(AI)を搭載したプラットフォームです。テキストベースのプロンプトを使用してフルスタックのWebアプリケーションを作成できるLovableは、脱獄攻撃に対して最も脆弱であることが判明しており、初心者やサイバー犯罪者志望者が偽装した認証情報収集ページを作成できるようになっています。
「Webアプリの作成と展開に特化したツールとして、その機能はあらゆる詐欺師の要望に完璧に合致しています」と、Guardio LabsのNati Tal氏はThe Hacker Newsに共有されたレポートの中で述べています。「ピクセルパーフェクトな詐欺ページからライブホスティング、回避テクニック、さらには盗難データを追跡するための管理ダッシュボードまで、Lovableは単に参加しただけでなく、実際に機能しました。ガードレールもためらいもありません。」
この手法はVibeScammingというコードネームで呼ばれています。これは、問題文を数文で記述し、それをコーディング用に最適化された大規模言語モデル(LLM)にプロンプトとして入力することでソフトウェアを作成するAI依存プログラミング手法を指す「バイブコーディング」に由来しています。
LLMやAIチャットボットを悪意のある目的で悪用することは、新しい現象ではありません。ここ数週間の調査では、脅威アクターがOpenAI ChatGPTやGoogle Geminiなどの人気ツールを悪用し、マルウェアの開発、研究、コンテンツ作成を支援していることが明らかになっています。
さらに、DeepSeekのようなLLMは、プロンプト攻撃やジェイルブレイク手法(Bad Likert Judge、Crescendo、欺瞞的攻撃などの攻撃に対して脆弱であることが判明しています。 Delight](https://thehackernews.com/2024/10/researchers-reveal-deceptive-delight.html) と呼ばれる手法により、モデルは安全性と倫理的なガードレールを回避し、その他の禁止コンテンツを生成することができます。これには、フィッシングメール、キーロガー、ランサムウェアのサンプルの作成 が含まれますが、追加のプロンプトとデバッグが必要になります。
Broadcom 傘下の Symantec は先月発表したレポートで、ユーザーに代わって Web ベースのアクションを実行できる AI エージェントである OpenAI の Operator を悪用して、特定の人物のメールアドレスを見つけ、システム情報を収集できる PowerShell スクリプトを作成して Google ドライブに保存し、フィッシング メールを作成してそれらの人物に送信し、スクリプトを実行させるというプロセス全体を自動化できる可能性があることを 明らかに しました。
AIツールの普及は、攻撃者にとっての参入障壁を大幅に下げ、AIを悪用する可能性があることも意味します。コーディング能力を駆使し、技術的な専門知識をほとんど、あるいは全く持たずに機能的なマルウェアを作成できる。
一例として、Immersive Worldと呼ばれる新しい脱獄手法が挙げられます。この手法では、Google Chromeブラウザに保存されている認証情報やその他の機密データを収集できる情報窃取マルウェアを作成できます。この手法は、「ナ ラティブエンジニアリングを用いてLLMのセキュリティ制御を回避」し、詳細な架空の世界を作成し、特定のルールを持つ役割を割り当てることで、制限された操作を回避します。
Guardio Labsの最新の分析では、LovableやAnthropic Claudeといったプラットフォームが、SMSテキストメッセージテンプレート、TwilioベースのSMSによる偽リンクの配信、コンテンツの難読化、防御回避、そしてTelegramとの連携といった機能を備えた、完全な詐欺キャンペーンを作成するために悪用される可能性があることが、より軽微な程度まで明らかにされています。
バイブスキャミングは、AIツールに攻撃サイクルの各ステップを自動化するよう指示する直接的なプロンプトから始まり、初期対応を評価し、その後マルチプロンプトアプローチを採用することで、LLMモデルを穏やかに誘導し、意図した悪意のあるレスポンスを生成します。「レベルアップ」と呼ばれるこの段階では、フィッシングページの強化、配信方法の改良、そして詐欺の正当性の向上が行われます。
Guardio氏によると、Lovableは本物のMicrosoftサインインページを模倣した本物らしいログインページを作成するだけでなく、自身のサブドメイン(例:*.lovable.app)でホストされているURLにそのページを自動展開し、認証情報を窃取した後にoffice[.]comにリダイレクトすることが確認 されています。
さらに、ClaudeとLovableはどちらも、詐欺ページがセキュリティソリューションによってフラグ付けされるのを回避するために支援を求めるプロンプトに従い、窃取した認証情報をFirebase、RequestBin、JSONBinなどの外部サービスや、プライベートTelegramチャンネルに流出させているようです。
「さらに憂慮すべきなのは、グラフィックの類似性だけでなく、ユーザーエクスペリエンスです」とタル氏は述べた。「本物を非常に忠実に模倣しているため、実際のMicrosoftログインフローよりもスムーズと言えるでしょう。これは、タスク指向型AIエージェントの真の威力を示しており、厳格な強化がなければ、知らず知らずのうちに悪用ツールと化してしまう可能性があることを如実に示しています。」
「この攻撃は、完全な認証情報ストレージを備えただけでなく、取得したすべてのデータ(認証情報、IPアドレス、タイムスタンプ、プレーンテキストのパスワードなど)を確認できる、完全に機能する管理ダッシュボードも提供してくれました。」
Guardioは、これらの調査結果と併せて、VibeScammingベンチマークと呼ばれるベンチマークの最初のバージョンもリリースしました。これは、生成AIモデルを徹底的にテストし、フィッシングワークフローにおける潜在的な悪用に対する耐性をテストするためのものです。 ChaGPTは10点満点中8点だったのに対し、Claudeは4.3点、Lovableは1.8点と、高い悪用可能性を示しました。
「ChatGPTは、おそらく最も先進的な汎用モデルであると同時に、最も慎重なモデルでもありました」とTal氏は述べています。 「対照的に、Claudeは当初は強い抵抗がありましたが、容易に説得できました。『倫理的』または『セキュリティ研究』という枠組みで促されると、驚くほど強力なガイダンスを提供しました。」