
OpenAI の ChatGPT プレミアム サブスクリプション サービスを装った巧妙なフィッシング キャンペーンが世界中で急増しており、不正な支払い要求でユーザーをターゲットにして認証情報を盗んでいます。
サイバー セキュリティ企業の Symantec は最近、ChatGPT のブランドを偽装し、架空の月額 24 ドルのサブスクリプションを更新するよう受信者に促すメールを 特定 しました。
件名に「アクションが必要: 月額 24 ドルのサブスクリプションで ChatGPT への継続的なアクセスを確保」などのマークが付いたこれらのメールは、ログイン情報や財務情報を収集するように設計された悪質なリンクにユーザーを誘導します。
この詐欺は ChatGPT の広範な採用を利用しており、正当な OpenAI 通信を模倣して本物に見せかけています。
メールには公式に見えるロゴやタイポグラフィが含まれることが多く、本文には支払い情報を更新しないと「プレミアム機能」へのアクセスが失効するという警告が書かれています。
埋め込まれたリンクは、偽の OpenAI ログイン ページをホストする fnjrolpa.com などのフィッシング ドメインにユーザーを誘導します。
Symantec は、これらのドメインは現在オフラインですが、発信元を隠すために国際 IP アドレスで登録されており、追跡が複雑になっていると指摘しています。
Barracuda Networks は 2024 年後半に同様のキャンペーンを観察しました。このキャンペーンでは、1,000 件を超えるメールがドメイン topmarinelogistics.com から発信されました。これは OpenAI とは無関係の送信者アドレスです。
SPF および DKIM 認証チェックに合格したにもかかわらず、メールには日付の不一致や公式文書では珍しい緊急の言葉など、微妙な危険信号が含まれていました。
このキャンペーンは、フィッシングの有効性を高めるために生成 AI ツールを悪用するサイバー犯罪者の幅広い傾向を反映しています。
ChatGPT のダークウェブ派生である FraudGPT などの詐欺サービスにより、詐欺師は文法的に完璧で文脈的に説得力のあるメールを大規模に作成し、従来の検出方法を回避できます。
Microsoft の 2023 年の分析では、AI 生成のフィッシング コンテンツが現在 20 を超える言語をサポートしており、攻撃者の攻撃範囲が広がっていることが強調されました。
「AI 生成の詐欺は、明らかなスペルミスを排除し、経験豊富なユーザーでさえも脆弱にします」と Barracuda の広報担当者は述べています。
これらの脅威に対抗するために、サイバーセキュリティ チームは次のことを推奨しています。
-
URL の精査: 本物の OpenAI サービスは https://chat.openai.com を使用しますが、フィッシング サイトではスペルミスや通常とは異なるドメインが使用されることがよくあります。
-
多要素認証 (MFA) の有効化: セキュリティ レイヤーを追加すると、認証情報の盗難の有効性が低下します。
-
トレーニング プログラム: ユーザーの 60% が機械生成のコンテンツを区別するのに苦労しているため、AI による詐欺を見分けるための定期的な従業員教育が不可欠です。
フィッシングは依然として最も蔓延しているサイバー犯罪であり、毎日 34 億件のスパム メールが送信されています。 AI ツールによって攻撃者の参入障壁が下がるにつれて、データ侵害の平均コストは現在 400 万ドルを超えています。
ChatGPT 詐欺は、技術的なソリューションとユーザーの認識を融合させた積極的な防御戦略の必要性を強調しています。
OpenAI は、サブスクリプションの更新はプラットフォーム経由でのみ管理されており、疑わしい通信を直接報告するようユーザーに促していることを繰り返し述べています。