関連インシデント
(ザ・コンバセーション)2025年7月8日付のワシントン・ポスト紙の報道によると、何者かが人工知能(AI)技術を用いてマルコ・ルビオ国務長官の音声クローン(ディープフェイク)を作成し、複数の政府高官に音声メッセージを残したという。同紙は国務省の機密文書を引用し、偽者がメッセージアプリ「シグナル」を使って「外務大臣3人、州知事1人、連邦議会議員1人を含む、少なくとも国務省関係者5人に連絡を取った」と伝えている。
偽者は少なくとも2人の政府高官に音声メッセージを残したほか、AI技術を用いてルビオ氏の文章スタイルを模倣したテキストメッセージも残したという。偽者による通信は6月中旬に始まった。
FBIは5月15日の警告において、「悪意のある人物が米国高官になりすましている」という「進行中の悪質なテキストメッセージおよび音声メッセージキャンペーン」について警告しました。警告では、このキャンペーンには「ヴィッシング」攻撃が含まれていると指摘されています。ヴィッシングとは、「音声 」と「フィッシング」を組み合わせた造語で、音声ディープフェイクを使用して被害者を騙し、情報や金銭を渡させたり、コンピュータシステムに侵入したりすることを指します。
サイバーセキュリティ 研究者 によると、ディープラーニングアルゴリズム、音声編集・エンジニアリング、合成音声生成の継続的な進歩により、人の声を本物らしくシミュレート することがますます可能になっていることがわかりました。
さらに悪いことに、ChatGPTのようなチャットボットは、適応的なリアルタイム応答を備えたリアルなスクリプトを生成することができます。これらの技術と音声生成を組み合わせることで(https://www.youtube.com/watch?v=V2efVSXSlqc&t=3s)、ディープフェイクは単なる静的な録音から、まるで電話で会話しているかのようなリアルなアバターへと進化します。
音声の複製
かつては、誰かの声を忠実に再現した高品質な音声コピーを作成するには、芸術的・技術的なスキル、高性能なハードウェア、そして対象となる声の十分なサンプルが必要でした。しかし、残念ながら、もはやそうではありません。
今日では、急速に成長している業界が、手頃な価格で中程度から高品質の音声クローンを生成できるサービスを提供しています。最先端のツールの中には、わずか1分、あるいは数秒の音声データで、聞き手を騙すほど、時には話し手の最も近しい家族や友人さえも騙すほど説得力のある合成音声を生成するものもあります。
詐欺や偽情報からの保護
英国の多国籍設計・エンジニアリング企業であるArupは、2024年1月に香港の警察に対し、「偽音声」を使った詐欺師によって2,500万ドルを詐取されたと報告しました。 2024年に英国で3,000人以上の成人を対象に実施された調査によると、回答者の4分の1以上が過去12か月間に音声ディープフェイク詐欺の標的になったと回答しています。
ロチェスター工科大学、ミシシッピ大学、ミシガン州立大学のDeFakeプロジェクトをはじめとする研究者たちは、動画や音声のディープフェイクを検出し、その被害を最小限に抑えるために懸命に取り組んでいます。また、身を守るために、身近で簡単に実行できる対策もあります。
たとえ親しい人からの突然の電話であっても、注意が必要です。すべての電話を事前に予約する必要はありませんが、少なくとも事前にメールやテキストメッセージで連絡を取っておくと安心です。また、発信者番号表示は偽装される可能性があるため、頼りにしないでください。例えば、銀行を名乗る人物から電話がかかってきた場合は、一旦電話を切り、銀行に直接電話をかけて、本当にその電話なのかを確認してください。必ず、メモしておいたり、連絡先リストに保存したり、Googleで検索したりできる番号を使用してください。
さらに、社会保障番号、自宅住所、生年月日 、電話番号、ミドルネーム、さらには子供やペットの名前といった個人識別情報にも注意してください。詐欺師はこれらの情報を利用して、銀行や不動産業者などにあなたになりすまし、あなたを破産させたり信用を失墜させたりして、私腹を肥やす可能性があります。
もう一つアドバイスがあります。それは、自分自身を知ることです。特に、自分の知的および感情的な偏見や弱点を知ることです。これは人生全般において役立つアドバイスですが、操られることから身を守るための鍵となります。詐欺師は、あなたの経済的な不安、政治的な関心、その他の傾向など、何であれ、それらを見抜き、それを食い物にしようとします。
こうした警戒心は、音声ディープフェイクを使った偽情報に対する有効な防御策でもあります。ディープフェイクは、あなたの確証バイアス、つまり誰かについてあなたが信じがちな傾向を悪用するために利用される可能性があります。
地域社会や政府の重要人物が、彼ららしくない発言をしたり、あなたが彼らに対して抱いている最悪の疑念を裏付ける発言をしたりしたら、警戒するのが賢明です。
この記事は2025年7月8日に更新され、誰かが音声クローン技術を使ってルビオ氏になりすましたというニュースが追加されました。
この記事は、クリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。オリジナル記事はこちら:https://theconversation.com/marco-rubio-impersonator-contacted-officials-using-ai-voice-deepfakes-computer-security-experts-explain-what-they-are-and-how-to-avoid-getting-fooled-201449。