Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 3631

関連インシデント

インシデント 63430 Report
Alleged Deepfake CFO Scam Reportedly Costs Multinational Engineering Firm Arup $25 Million

Loading...
Deepfake Scam Video Cost Company $26 Million, Hong Kong Police Says
voanews.com · 2024

HONG KONG --- 

Scammers tricked a multinational firm out of some $26 million by impersonating senior executives using deepfake technology, Hong Kong police said Sunday, in one of the first cases of its kind in the city.

Law enforcement agencies are scrambling to keep up with generative artificial intelligence, which experts say holds potential for disinformation and misuse --- such as deepfake images showing people mouthing things they never said.

A company employee in the Chinese finance hub received "video conference calls from someone posing as senior officers of the company requesting to transfer money to designated bank accounts," police told AFP.

Police received a report of the incident on January 29, at which point some HK$200 million ($26 million) had already been lost via 15 transfers.

"Investigations are still ongoing and no arrest has been made so far," police said, without disclosing the company's name.

The victim was working in the finance department, and the scammers pretended to be the firm's U.K.-based chief financial officer, according to Hong Kong media reports.

Acting Senior Superintendent Baron Chan said the video conference call involved multiple participants, but all except the victim were impersonated.

"Scammers found publicly available video and audio of the impersonation targets via YouTube, then used deepfake technology to emulate their voices... to lure the victim to follow their instructions," Chan told reporters.

The deepfake videos were pre-recorded and did not involve dialogue or interaction with the victim, he added.

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd