Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4847

関連インシデント

インシデント 9654 Report
Phishers Allegedly Using AI-Generated Video of YouTube CEO Neal Mohan to Target Creators

Loading...
ハッカーが認証情報窃盗詐欺で YouTube CEO の AI ディープフェイクを展開
hackread.com · 2025

YouTube CEO のニール・モハンがディープフェイク フィッシング詐欺でなりすまされました。この攻撃について、危険信号を見分ける方法、認証情報の盗難からアカウントを保護する方法について学びましょう。

最近、人工知能を活用 という新しい高度なフィッシング操作が YouTube コンテンツ クリエイターをターゲットにしています。詐欺師はディープフェイク技術を利用して、YouTube の CEO であるニール・モハンがプラットフォームの収益化ポリシーの変更について偽の発表を行う説得力のあるビデオを作成しました。

このビデオは、ログイン認証情報を盗み、デバイスにマルウェアをインストールするために、ターゲット ユーザーと非公開で共有されます。この詐欺行為は、YouTube の公式アドレスから送信されたように見える電子メールから始まり、クリエイターに非公開ビデオが共有されたことを通知します。この動画には、Neal Mohan の驚くほどリアルなディープフェイクが使われており、彼の外見、声、仕草を驚くほど模倣しています。

動画の中で、AI によって生成された Mohan は YouTube の収益化に対する疑惑の変更について語り、視聴者に特定の行動を取るよう促しています。これらの行動には通常、リンクをクリックしたり、偽の Web サイトでログイン認証情報を入力し、信頼できないソースからソフトウェアをダウンロードすることが含まれます。

不正な動画 (出典: Reddit)

ユーザーのアカウントを侵害すると、攻撃者はそのユーザーの YouTube チャンネルにアクセスできるようになります。このアクセスは、偽情報の拡散、さらなるフィッシング攻撃の実行、詐欺行為への関与など、さまざまな悪意のある目的に悪用される可能性があります。

YouTube はこの脅威に対応して、クリエイター コミュニティに緊急警告を発しました。同社は、プライベート ビデオを通じて重要な情報を共有したり、ユーザーに連絡したりすることは決してないと明言しています。さらに、YouTube からのものだと主張するプライベート ビデオ、特に CEO が登場するものは、フィッシング詐欺として扱う必要があると強調しました。

「YouTube の CEO である Neal Mohan が収益化の変更を発表する AI 生成ビデオなど、フィッシング詐欺師が偽のビデオを送信するためにプライベート ビデオを共有していることは認識しています。YouTube とその従業員がプライベート ビデオを通じてユーザーに連絡したり情報を共有したりすることは決してありません」と Google の 公式発表 には書かれています。

「YouTube からのものだと主張して、あなたとプライベートに共有されたビデオはフィッシング詐欺です。 「これらのリンクをクリックしないでください。動画はフィッシングサイトにつながる可能性があり、マルウェアをインストールしたり、認証情報を盗んだりする可能性があります」と、YouTubeのRob氏はユーザーに警告しました。

AIディープフェイクは、実際の映像と音声サンプルでトレーニングされた高度なAIモデルによって作成された危険な幻想であり、公人に対する人々の信頼を悪用しています。技術に精通した人でも、実際の映像と区別するのに苦労するでしょう。この事件は、フィッシング攻撃の高度化が進み、ディープフェイク技術がYouTubeのCEOなどの著名人になりすますために使用されていることを浮き彫りにしています。

サイバー犯罪者は、公式プラットフォームのコミュニケーションに対するクリエイターの信頼を悪用し、信じられる欺瞞を作成します。コンテンツクリエイターは注意を払い、信頼できないソースからのファイルをダウンロードしないようにすることをお勧めします。動画を受け取った場合、Google では以下の手順に従って報告することを 推奨 しています。

Cofense のインテリジェンス マネージャーである Max Gannon 氏は、最新の展開について次のように述べています。「ディープフェイクは通常、価値の高い標的型詐欺にのみ使用されているため、脅威アクターがこれをこのような広範な攻撃に使用していることは驚きです。これは懸念すべき事態であり、脅威の状況が変化し、ディープフェイクやその他の標的型攻撃手法がより多くの視聴者に広く適用されるようになる可能性を示唆している可能性があります。“

_“_ただし、さまざまなソーシャル メディア プラットフォームでこれらの偽の YouTube メールについて投稿した影響を受けたユーザーによると、メールはセッション クッキーを盗み、YouTube アカウントを乗っ取るための悪意のある実行可能ファイルを配信します。結局のところ、最初のフィッシング フックは変化している可能性がありますが、最善の防御策は変わりません。疑わしいメールを検出し、リンクをクリックしないようにするためのトレーニングと認識です。」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd