Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5137

関連インシデント

インシデント 1476 Report
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Loading...
香港の3500万ドルの銀行強盗の背後にあるディープフェイク技術
proprivacy.com · 2022

UAE警察は、ディープフェイクAI(人工知能)を用いて取締役の声を複製し、支店長に3,500万ドルを振り込ませたとされる銀行強盗事件を捜査している。

ディープフェイク技術が進化し新たな機会をもたらす一方で、そこから生じる脅威も増大している。AI支援社会において、自動化による雇用喪失が最大の懸念事項になると考える人もいたが、新たな課題が浮上している。顔認識、音声、動画のディープフェイク(声や容姿を操作して作成される)は、悪用されると、最近の詐欺事件に見られるように、個人のプライバシーと安全に深刻な脅威をもたらす可能性がある。

ディープボイスを使った精巧な計画

2020年初頭、香港のある銀行支店長は、声を知っている会社の取締役からだと思しき人物からの電話を受けた。その取締役とは何度か話をしたことがあった。この取締役は良い知らせを伝え、ある依頼をするために電話をかけてきた。ある会社の買収を可能にするため、3,500万ドルの送金を承認してほしいというのだ。

取締役は、買収の調整のためにマーティン・ゼルナーという弁護士を雇ったと主張した。支店長は受信箱で、取締役とゼルナーの両方から送金金額の正確な確認メールを確認できた。ディープボイス技術の存在を知らず、書面による確認を目の前にしていた彼は、その指示に従った。彼は全額を米国中の複数の口座に送金し、瞬く間に3,500万ドルは消え去った。捜査を主導するUAEの捜査官たちは、この精巧な計画には少なくとも17人が関与していたと見ている。

私たちは今、悪意のある行為者が専門知識とリソースを最新技術に注ぎ込み、ディープフェイク技術の領域やその存在すら知らない人々を操ろうとする瀬戸際にいます。

セキュリティ企業ESETのサイバーセキュリティ専門家、ジェイク・ムーア

この種の詐欺の試みが初めて報告されたのは2019年、英国で発生しました。詐欺師たちはAIの助けを借りてCEOの声を真似し、エネルギー会社から24万ドルを盗もうとしたのです。香港とは異なり、この試みは詐欺であることが早期に判明したため、失敗に終わりました。

AIは不気味の谷を越えた

香港の計画に納得がいかない、そして人間の声や顔をAIが作ったものと見分けられると信じているなら、米国科学アカデミー紀要に掲載された新たな研究があなたの信念を打ち砕くでしょう。カリフォルニア大学バークレー校のハニー・ファリド教授とイギリスのランカスター大学のソフィー・J・ナイチンゲール講師が行ったこの研究は、人間がもはや本物の顔とAIが生成した顔を見分けられない段階に達していることを示唆しています。

> 偽造オンラインプロフィールが良い例です。偽造パスポート写真。それでも、写真には悪用されるケースがあります…しかし、事態が本当に厄介になるのは、動画と音声です。

カリフォルニア大学バークレー校教授 ハニー・ファリド氏

この研究によると、コインを投げれば本物と合成画像を正確に見分けられる確率はわずかに高くなるとのことです。研究に参加した人々が偽画像を認識できたのは、半分以下の確率でした。正確には、平均スコアは48.2%でした。現代のAI作品は不気味の谷を越えたと自信を持って言えます。

しかし、最も不気味なのは、人々がAI生成画像を本物の顔よりも7.7%高い確率で信頼する傾向にあるという研究結果の部分です。参加者は、実際の顔と架空の顔のセットを信頼度に基づいて評価するよう求められたところ、AI生成の顔は実物よりも7.7%高い信頼性があると感じました。この結果は、「自分には絶対に起こらない」という誤解に新たな光を当てています。これは、今日の絶えず変化する世界において非常に危険なものです。

私たちはこの結果に非常に驚きました。なぜなら、私たちの目的はパフォーマンスを向上させるための間接的な方法を見つけることであり、信頼とはまさにそれであり、実物の顔はより信頼できるという感覚を引き起こすと考えていたからです。

ソフィー・J・ナイチンゲール、英国ランカスター大学講師

身を守る

これらの調査結果は不安を掻き立てるものですが、ディープフェイク技術やその他の詐欺の被害者になるリスクを最小限に抑えるために実践できる習慣はまだあります。

  • アバターは私たちの身近に存在し、広く普及していることを常に意識しましょう。オンラインで目にするものすべてが現実とは限りません。実際、詐欺やフィッシング攻撃は日々増加しており、肉眼で見分けることはほぼ不可能になりつつあります。
  • 必要なサポートはすべて受けましょう。Lookout のような、マルウェア対策やセーフ ブラウジング保護機能を備えた優れた高度なセキュリティ ソリューションがいくつかあります。これらのソリューションは、ソーシャル メディア、テキスト メッセージ、オンラインでクリックしたすべてのリンクをスキャンし、脅威が被害に遭う前にブロックします。
  • 何らかの行動を促したり、機密データについて質問したりしようとする企業や個人を特定するために、常に最善を尽くしましょう。緊急性は、人々を説得して情報をすぐに提供させるためのよくある手口です。情報源に直接連絡を取り(電話をかけたり、必要に応じて直接訪問したりして)、受け取った要求が本物かどうかを確認してください。100% の確信を持って相手の身元を確認できない場合は、デジタルで情報を共有しないでください。
情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd