Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 1496

関連インシデント

インシデント 1476 Report
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Loading...
Bank Robbers Steal $35 Million by Deepfaking Boss's Voice
futurism.com · 2021

Deep Voice

Deepfake technology has gotten incredibly sophisticated over the years, allowing us to resurrect the voices of the dead and fool Justin Bieber into challenging famous Scientologists to fights. Some folks are even using it for more criminal purposes.

Such was the case for a United Arab Emirates bank that was fooled by criminals using AI voice cloning to steal $35 million. Court documents recently uncovered by Forbes revealed that fraudsters used a deepfaked voice of a company executive to fool a bank manager to transfer the millions to their possession in early 2020.

The supposed executive said his company was about to make an acquisition and needed the money to do so. The bank manager recognized the executive’s voice from having worked with him before. So, believing everything was copacetic, he authorized the transfer — straight into the accounts of the criminals.

Wanted: AI Bank Robbers

The UAE has now requested the help of American investigators to trace roughly $400,000 that went into US-based bank accounts, according to the documents. Dubai investigators believe that the operation involved at least 17 people using “deep voice” tech and sent money to banks across the world.

While surprising, this is actually the second known case of criminals using a deepfaked voice to try and rob a bank. In 2019, criminals used AI to try and impersonate an executive’s voice to steal $243,000, according to The Wall Street Journal.

Rest assured, as the technology behind deepfakes become more and more refined, we’ll see plenty more attempts at fraud emerge in the future.

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd