Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4315

関連インシデント

インシデント 8514 Report
Salt Lake City Police Chief Mike Brown's Voice and Image Misused in AI-Generated Scam

Loading...
警官の声を複製するAI詐欺に騙されないよう警察が警告
arstechnica.com · 2024

報道によると、AIは詐欺師に警察になりすますためのより説得力のある方法を与えている。

先週、ソルトレイクシティ警察署(SLCPD)は、AIを使用してマイク・ブラウン警察署長の声を説得力のある形で複製するメール詐欺について警告した。

ある市民が、警察署長が「連邦政府に約10万ドルの借金がある」と主張する動画を含む疑わしいメールを受け取った後、警察に通報した。

詐欺師はターゲットを騙すために、ブラウン署長の以前のテレビインタビューの実際の映像をAI生成音声と組み合わせた。SLCPDによると、この音声は「明瞭でブラウン署長の声に非常によく似ており、地域住民にメッセージが本物だと信じさせる可能性がある」という。

FBIは長年、警官や政府関係者になりすまして恐喝を試みる詐欺師について警告してきた。しかし、AI音声クローン技術が進歩するにつれて、こうした詐欺の検出ははるかに困難になる可能性があり、OpenAIのような最も先進的な企業でさえ、悪用される可能性に対する明らかな懸念から、最新技術のリリースをためらうようになっている。

SLCPDは、警察署長になりすましたメールには、技術に精通した市民なら気付く可能性のある手がかりがあったと指摘した。より注意深く聞くと、「メッセージには不自然な話し方、特定の単語の奇妙な強調、一貫性のないトーン」、および「文と文の間の音響編集が検知可能」であることがわかります。そしておそらく最も顕著なのは、詐欺メールが警察の公式メールドメイン「slc.gov」ではなく、「Googleアカウントから送信され、ソルトレイクシティ警察署の名前に数字が続いていた」ことです。

SLCPDは、AI警官のなりすましに対処している唯一の警察署ではありません。タルサでもこの夏、同様の問題が発生しました。詐欺師がタルサ警察官のエリック・スプラドリンに聞こえるように設計された説得力のある偽の声を使用して住民に電話をかけ始めたと、パブリックラジオタルサが報告しました。電話を受けたソフトウェア開発者のマイルス・デイビッド氏は、今日のAIのリスクは理解していたが、彼でさえ「不意を突かれた」ため、電話が本物でないことを確認するために警察に電話しなければならなかったと語った。

「この人物は、本当に私と話すつもりだったかのように、非常にカジュアルな会話のように聞こえました」とデイビッド氏は語った。「彼は私のファーストネームとラストネームを使いました。彼らは非常にカジュアルに話しました。それがとても本物のように聞こえ、最終的にとても怖かったのです。」

ソルトレイクシティの事件で明らかに偽のメールアドレスが使われたのとは異なり、タルサの詐欺の標的となったサイバーセキュリティ教授のタイラー・ムーア氏は、詐欺電話をタルサ警察の電話回線から発信されたように見せるのは比較的簡単だと、パブリック・ラジオ・タルサに語った。

警察は、偽の警官には警察に電話するようアドバイス

この新たなAIの悪用は米国に限ったことではない。 3月にKaveriというユーザーがXに投稿した投稿は、 80万回再生された動画は、インドで警官を装った詐欺師が、言われた通りにしなければ幼い娘を連れ去ると脅迫していると警告している。

その詐欺師は娘の声を複製したが、これは昨年注目された別の懸念すべき傾向の一部であり、悪意のある人物が[AIを使用して困っている愛する人になりすまし、]数千ドルをだまし取るというものだ(https://arstechnica.com/tech-policy/2023/03/rising-scams-use-ai-to-mimic-voices-of-loved-ones-in-financial-distress/)。

最終的に、カヴェリさんにとって、娘が警官と一緒ではなかったことが明らかになるような具体的な質問をしたことで、危険信号が上がった。しかし、The Indian Expressによると、同様の詐欺の標的となった他の人々も騙され、結局は金銭を失っているという。

世界中の警察は、被害を抑止するためにAI音声詐欺のリスク増大に対する認識を高めたいと考えており、市民に警察からの電話を確認し、詐欺師が答えられない可能性のある具体的な質問をするようアドバイスしている。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd