ヒューストン発 ― 詐欺師が人工知能(AI)を使って偽動画を作成し、金銭を騙し取ろうとしていることについて、私たちは以前から警告してきました。しかし、もしあなたの友人にそっくりなディープフェイク動画があったら、見分けられるでしょうか?
ヒューストン在住の女性2人が、AIが生成した友人の動画に騙されたと訴えています。そして、彼女たちの映像は、さらに別の人を騙すためのディープフェイク動画の作成に使われたのです。
「信じられない。本当に腹が立ちました」とステイシー・スヴェグリアートさんは言います。
ステイシーさんは、友人のサラ・サンドリンさんにそっくりな人物から、メッセンジャーアプリでビデオ通話を受けたと言います。
「彼女から電話がかかってきて、途切れ途切れで、『ねえ、私のFacebookがハッキングされた』というメッセージしか聞こえませんでした」とステイシーさんは言います。
ステイシーさんは、携帯電話でアクセスコードを受け取り、それを送信したと語っています。すると、ステイシーさんのFacebookページに、父親の車、家電、家具を販売するという内容の投稿が現れました。その後、友人たちが、彼女のそっくりな顔と声をしたビデオメッセージを受け取り、それらの品物を売ろうとするようになったそうです。
「私の声はとても特徴的なので、私に話しかけていると言われると怖いんです」とステイシーさんは言います。
なんと、サラ・サンドリンさんも、知り合いの顔と声をしたビデオメッセージを受け取っていたのです。
「彼女の顔でした。手を振って、笑っていて、髪を後ろに流していました」とサラさんは動画について説明しました。
サラさんも騙されてアクセスコードを送信し、彼女のFacebookページに販売商品が掲載され、AIが生成した彼女の動画が友人たちに送られました。
「みんな私だと思ったんです。騙された人もいれば、そうでない人もいました」とサラさんは言います。友人の中には、動画の送信者がサラではないことに気づかず、出品されている商品に数百ドルを送金したという人もいたそうです。
Akouto Consultingのサイバーセキュリティ専門家、ドミニク・チョラファキス氏によると、詐欺師たちはオンラインに投稿された動画を盗用し、AIが生成したアバターを作成しています。そのアバターは見た目も声も実在の人物に酷似しており、知り合いでさえ騙せるほどです。
「 本人の写真さえ使えば、あとはリップシンクがやってくれます。長い動画は必要ありません。静止画でも構いません」とチョラファキス氏は言います。
この仕組みを説明するために、私は自分が話している動画を撮影し、オンラインAIツールにアップロードして、アバターにセリフを言わせるスクリプトを入力しました。
「これはAIが生成した私の動画です。AIと本物の違いが分かりますか?」と、動画の中で私のアバターはカメラに向かって、私そっくりの見た目と声で言いました。
詐欺師が自分のディープフェイク動画を作成するのではないかと心配な場合は、チョラファキス氏は自衛策を講じることを勧めています。
「まず、公開する内容を制限しましょう。プラットフォームのセキュリティ機能を活用して、コンテンツへのアクセスを制限し、一般公開されないようにしましょう」とチョラファキス氏は言います。
サラさんとステイシーさんは、詐欺師が自分たちのアバターを使い続けるのではないかと心配しています。
「私の友人サラもそうですが、サラが必要なお金を搾取するために利用されていました。しかも、サラ本人ではありません。だから、もうこんな目に遭わないでほしいです」とステイシーさんは言います。
私たちはこの詐欺についてFacebookに連絡しましたが、回答はありませんでした。
専門家は、自衛策として以下のことを推奨しています。
- ソーシャルメディアのプロフィールは非公開にし、自分に関する投稿は控えましょう。
- アクセスコードを誰にも教えないでください。
- デジタルアカウントを保護するために、複雑 なパスワードと多要素認証を使いましょう。
ステイシーとサラはFacebookアカウントにログインできなくなり、大切な家族写真にアクセスできなくなってしまいました。そのため、保存しておきたい写真や動画はバックアップしておくことをお勧めします。