Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5136

関連インシデント

インシデント 1476 Report
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Loading...
ディープボイスが2020年に3500万ドルの銀行強盗を助長
unite.ai · 2021

2020年1月にアラブ首長国連邦の銀行から3,500万ドルが盗まれた事件の捜査で、偽の音声技術を使って銀行支店長が知り合いの会社の取締役になりすまし、取引を承認していたことが判明した。

この犯罪は昨年1月15日に発生し、リクエスト (PDF) に記載されています。UAEは、米国に送金された横領資金の一部を追跡するために、米国政府当局に支援を提供していました。

嘆願書によると、被害者のUAE銀行支店長は、マーティン・ゼルナーという弁護士からのメールと併せて、見覚えのあるボイスメールを受け取ったとのことで、どうやら会社の所有権を得るために金銭を支払うよう説得されたという。

申請書には次のように記載されています。

UAE当局によると、2020年1月15日、被害企業の支店長は、同社の本社を名乗る電話を受けた。発信者は会社の CEO のように見えたので、支店長は電話が本物だと信じました。

支店長は、この電話に関連して、部長からのものと思われる複数のメールも受け取りました。発信者は電話とメールで支店長に、被害者の会社が別の会社に買収されようとしていること、そしてマーティン・ゼルナー(以下、ゼルナー)という弁護士が買収手続きの調整を委任されていることを告げました。

その後、支店長はゼルナー氏からのメールと、被害者にとって馴染みのある声のディレクター(と思われる)からの承認書を受け取った。

音声詐欺が検出されました

UAEの捜査官はその後、音声符号化技術が同社のCEOの声を模倣するために使用されたことを確認した。

エミレーツの調査により、被告らはディレクターの声を真似るために「ディープボイス」技術を使用していたことが明らかになった。 2020年1月、少なくとも17人の既知および未知の被告が関与する複雑な計画により、被害企業から他国の複数の銀行口座に資金が送金されました。 UAE当局は複数の口座を通じてこの資金の動きを追跡し、米国への2件の送金を特定した。

「2020年1月22日、被告人2名から、それぞれ199,987.75米ドルと215,985.75米ドルの2回の電信送金が、米国にあるセンテニアル銀行の口座番号xxxxx7682とxxxxx7885に送金されました。」

この犯罪に関する詳細は不明だが、多額の資金を狙った金融詐欺事件としては2件目となっている。最初の事件は9か月前の2020年3月に起きた。英国のあるエネルギー会社のマネージャーが、上司を装った電話をかけてきた人物から電話で脅迫を受け、22万ユーロ(24万3000ドル)の緊急送金を要求されたが、従業員はそれに応じた。

締めくくりの音声の改善

偽の音声エンコーディングでは、数百、あるいは数千もの「ターゲット」音声(模倣する音声)のサンプルを使用して機械学習モデルをトレーニングします。最も正確な比較は、ターゲットの音声を、提案されたビデオで話す人物の音声に対して直接トレーニングすることによって得られますが、スタイルはターゲットになりすます人物に合わせて「調整」されます。

音声クローキング開発者の最も活発なオンラインコミュニティは、Audio Fake Creation Discordサーバーであり、Google Takotron-2、Talknet、Forw ardTakotron、Coqui-ai-TTS、Glow-TTSなど。

リアルタイムディープフェイク

電話での会話は双方向なので、高品質の「焼き付け」映像でナレーション詐欺を行うことは合理的に不可能であり、ナレーション詐欺のどちらのケースでも、話者が偽のライブのリアルタイムの音声を使用していると合理的に推測できます。構造。

DeepFaceLabディープフェイクスイートのリアルタイム実装であるDeepFaceLiveの登場により、リアルタイムの偽造が最近注目を集めています。DeepFaceLiveは、有名人やその他のアイデンティティを強化できますライブカメラの映像を入力。 Audio Fakes Discord と DeepFaceLab Discord のユーザーは、2 つのテクノロジーを単一のビデオ + オーディオ ディープラーニング フレームワークに統合することに非常に興味を持っていますが、そのような製品はまだ明確に登場していません。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4