Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1053: ムンバイのビジネスマンが息子を装ったAIクローン音声による詐欺被害に遭ったと報道

自動翻訳済み
概要:
自動翻訳済み
ムンバイ在住のビジネスマン、KT・ヴィノド氏は、ドバイ駐在インド大使館の代表者を名乗る人物から息子が逮捕されたという電話を受け、8万ルピーを失ったと報じられています。犯人はAI音声生成技術を用いてヴィノド氏の息子の声を模倣し、助けを求めていたとされています。緊急性を確信したヴィノド氏は、Google Payで送金を指示しました。この詐欺が発覚したのは、ヴィノド氏が息子に直接連絡を取った後のことでした。
Editor Notes: This incident is reported to have occurred on 03/30/2024. It was added to the database on 05/03/2025.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown voice cloning technology developer と Unknown deepfake technology developer developed an AI system deployed by Unknown scammers と Unknown fraudsters, which harmed General public of India , Mumbai businessman と Son of Mumbai businessman.
関与が疑われるAIシステム: Unknown voice cloning technology , Unknown deepfake technology と Google Pay

インシデントのステータス

インシデントID
1053
レポート数
2
インシデント発生日
2024-03-30
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident OccurrenceムンバイのビジネスマンがAI音声クローンの被害に遭い、8万ルピーを失うムンバイの男性がAI音声クローン詐欺で8万ルピーを失う:詐欺とは何か、どうすれば安全を保てるか
ムンバイのビジネスマンがAI音声クローンの被害に遭い、8万ルピーを失う

ムンバイのビジネスマンがAI音声クローンの被害に遭い、8万ルピーを失う

timesofindia.indiatimes.com

ムンバイの男性がAI音声クローン詐欺で8万ルピーを失う:詐欺とは何か、どうすれば安全を保てるか

ムンバイの男性がAI音声クローン詐欺で8万ルピーを失う:詐欺とは何か、どうすれば安全を保てるか

timesnownews.com

ムンバイのビジネスマンがAI音声クローンの被害に遭い、8万ルピーを失う
timesofindia.indiatimes.com · 2024
自動翻訳済み

ムンバイ:ポーワイ在住の68歳のビジネスマンが、人工知能(AI)による音声クローン詐欺の被害に遭い、8万ルピーの損失を被った。この詐欺は、ドバイ駐在のインド大使館を装った偽の電話によるもので、KT・ヴィノド氏の43歳の息子が3月30日に逮捕され、終身刑に直面しているという虚偽の主張がされていた。

ヴィノド氏の告訴に基づき水曜日にこの事件を受理したカンジュルマルグ警察によると、詐欺師は電話で息子の声を流し、保釈を懇願していたという。

このビジネスマンは3月30日午後12時45分…

ムンバイの男性がAI音声クローン詐欺で8万ルピーを失う:詐欺とは何か、どうすれば安全を保てるか
timesnownews.com · 2024
自動翻訳済み

ムンバイで最近発生した事件は、AI音声複製詐欺の脅威の高まりを浮き彫りにしました。ビジネスマンのヴィノド氏は、息子とドバイ駐在インド大使館の職員を装った詐欺師に騙され、8万ルピーを失いました。この事件は、こうした詐欺の巧妙さと警戒の重要性を改めて認識させるものです。

AI音声複製とは?

AI音声複製技術により、詐欺師は人の声を忠実に再現した複製を作成できます。これらの複製は、友人、家族、さらには権威ある人物になりすますために使用され、本物の電話と偽物の電話を見分けることがます…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 レポート
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 レポート
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 818b77a