概要: LastPassの従業員が、WhatsApp経由でCEOのカリム・トゥッバ氏を装った音声ディープフェイクの標的になったと報じられています。このメッセージは、ソーシャルエンジニアリングの手法で音声複製AIを使用し、緊急性を演出してセキュリティプロトコルを回避しようとしていました。従業員は危険信号に気づき、このインシデントを報告しましたが、侵害は発生しませんでした。LastPassは、経営幹部や企業を狙ったディープフェイクを利用した詐欺キャンペーンへの意識を高めるため、このインシデントを公表しました。
Editor Notes: This incident reportedly occurred on 04/10/2024. It was ingested into the AI Incident Database on 06/13/2025.
Alleged: Unknown deepfake technology developer と Unknown voice cloning technology developer developed an AI system deployed by Unknown scammers と Unknown scammer impersonating Karim Toubba, which harmed Karim Toubba , LastPass employee , Employees of LastPass と General public.
インシデントのステータス
インシデントID
1100
レポート数
3
インシデント発生日
2024-04-10
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
Loading...
ここ数年、サイバー脅威インテリジェンス コミュニティは、「ディープフェイク」技術の急速な普及と、企業や個人に対する詐欺師によるその潜在的な悪用を懸念してきました。「ディープフェイク」は、生成型人工知能を使用して既存のオーディオやビジュアル サンプルを活用し、作成者がディープフェイク ツールにプログラムして作成した対象の個人の発言や行動の新しくユニークな記録を作成します。ディープフェイクは政治的な誤情報や偽情報キャンペーンに関連付けられることがよくありますが、ディープフェイクの…
Loading...
パスワード管理大手のLastPassは、社員がディープフェイク詐欺の標的となった後、セキュリティ侵害の可能性を間一髪で回避しました。LastPassのブログ記事で詳細が説明されているこの事件では、CEOのカリム・トゥバ氏になりすました音声ディープフェイクが、WhatsApp経由で社員に連絡を取ろうとしました。
音声や動画を操作してリアルな偽物を作成できるディープフェイク技術は、サ イバー犯罪者が精巧なソーシャルエンジニアリングの手法でますます悪用しています。今回のケースでは、詐…
Loading...