CSETv1 分類法のクラス
分類法の詳細Incident Number
147
Special Interest Intangible Harm
no
Date of Incident Year
2020
Estimated Date
No
Multiple AI Interaction
no
Embedded
no
Risk Subdomain
4.3. Fraud, scams, and targeted manipulation
Risk Domain
- Malicious Actors & Misuse
Entity
Human
Timing
Post-deployment
Intent
Intentional
インシデントレポート
レポートタイムライン
2020年1月にアラブ首長国連邦(UAE)の銀行から3,500万ドルが詐取された事件の捜査で、銀行支店長が知人の企業取締役を偽装するためにディープフェイク音声技術が使用され、その取締役が取引を承認していたことが判明しました。
この犯罪は昨年1月15日に発生し、UAEが米国当局に対し、米国に送金された資金の一部を追跡するための協力を求める要請書 (PDF)に概要が記載されています。
この要請書によると、UAEの被害銀行(名前は伏せられています)の支店長は、見覚えのある声からの電…
2020年1月にアラブ首長国連邦の銀行から3,500万ドルが盗まれた事件の捜査で、偽の音声技術を使って銀行支店長が知り合いの会社の取締役になりすまし、取引を承認していたことが判明した。
この犯罪は昨年1月15日に発生し、リクエスト (PDF) に記載されています。UAEは、米国に送金された横領資金の一部を追跡するために、米国政府当局に支援を提供していました。
嘆願書によると、被害者のUAE銀行支店長は、マーティン・ゼルナーという弁護士からのメールと併せて、見覚えのあるボイスメ…

Deep Voice
Deepfake technology has gotten incredibly sophisticated over the years, allowing us to resurrect the voices of the dead and fool Justin Bieber into challenging famous Scientologists to fights. Some folks are even using it for mor…
先週、米連邦裁判所に提出された訴状によると、詐欺師グループは偽造メールとディープフェイク音声を使い、アラブ首長国連邦(UAE)企業の従業員に対し、取締役が別の組織の買収の一環として資金を要求したと信じ込ませ、3,500万ドルを詐取した。
この攻撃は支店長を標的とし、取締役と米国在住の弁護士を装ったメールが送信された。メールには、この弁護士が買収のコーディネーターとして指定されていた。この攻撃は、ニューラルネットワークと呼ばれる機械学習アルゴリズムを用いて作成された合成音声を使…
UAE警察は、ディープフェイクAI(人工知能)を用いて取締役の声を複製し、支店長に3,500万ドルを振り込ませたとされる銀行強盗事件を捜査している。
ディープフェイク技術が進化し新たな機会をもたらす一方で、そこから生じる脅威も増大している。AI支援社会において、自動化による雇用喪失が最大の懸念事項になると考える人もいたが、新たな課題が浮上している。顔認識、音声、動画のディープフェイク(声や容姿を操作して作成される)は、悪用されると、最近の詐欺事件に見られるように、個人のプライ…