「イスラム国は、血みどろの攻撃でロシアに強烈な打撃を与えた。ここ数年で最も激しい攻撃だ」と画面上の男はアラビア語で語る。彼は戦争ジャーナリストらしく明瞭な話し方をしており、服装もカーゴシャツ、袖をまくり、ヘルメットをかぶっている。彼の左側では、攻撃の映像が、洗練されたニュース風のグラフィックと「ハーベスト ニュース」と書かれたロゴの上に流れている。
このジャーナリストが AI が生成したキャラクターであることは、ほんの数秒でわかる。むしろ、彼が一語一句暗唱している内容こそが、イスラム国 (IS/ISIS) の「アマク通信社」による 3 月 23 日の報道である。この動画は、同組織によるクロッカス市庁舎虐殺の祝賀キャンペーン開始から 5 日後の 3 月 27 日に、数千人の ISIS メンバーが集まる有名な会場で公開された。 5月17日現在、さらに5本の「ハーベストニュース」ビデオが出回っている。
フェイクニュース、有名人のディープフェイク、投票者を抑圧するロボコール、詐欺が横行する今日のAIディストピアでは、このようなビデオが存在することは驚くことではないかもしれない。しかし、これらのビデオは、過激派がミームやプロパガンダから爆弾製造ガイドまで、あらゆるものにAIを活用している最新の厄介な展開だ。
メディアが生命線であるテロリストや過激派コミュニティにとって、AIがどんなに素晴らしい贈り物であるかを過小評価するのは難しい。かつてはライター、編集者、ビデオ編集者、翻訳者、グラフィックデザイナー、ナレーターのチームを経て完成するまでに数週間、さらには数か月かかっていた作品が、今ではAIツールを使って1人で数時間で作成できる。
確かに、アルカイダからネオナチのクソ投稿者まで、過激派はこれらのテクノロジーをすぐに利用してきた。アラビア半島のアルカイダ(AQAP)の悪名高い雑誌「インスパイア」は、2013年のボストンマラソン爆弾犯のような攻撃者を導いた攻撃指示書を収録しており、2023年後半にビデオシリーズとして再登場。この衝撃的な45分間のビデオには、雑誌第13号から抜粋した爆弾の作り方と隠し方の詳細な指示書が含まれており、ナレーターが最初から最後まで指示を述べている。
「当初、主な問題として直面したのは、単独のムジャヒディストがどのようにして必要な爆発物を入手するかということでした」とナレーターは述べている。「数か月間、私たちはいくつかの実験を行いました。その結果、世界中で、アメリカ国内でも容易に入手できるこれらの単純な材料を思いつきました。」
このナレーターの話し方は人間的で力強いが、[分析によると](https://www.akhbaralaan.net/news/special-reports/2023/12/31/%D9%85%D8%A7-%D8%B9%D9%84%D8%A7%D9%82%D8%A9-%D8%B9%D9%88%D8%AF%D8%A9-%D9%85%D8%AC%D9%84%D8%A9-%D8%A7%D9%84%D9%82%D8%A7%D8%彼は音声生成AIの産物である。近年のAQAPとアルカイダ・セントラルの指導者交代を考えると、再編されたメディアチームがこれらの技術を使って活動の近代化を図ろうとしたとしても不思議ではない。
AI を使っているのは公式のテロリスト集団だけではなく、その支持者もブランド名のないジハード AI 画像をオンラインで流布している。9/11 の記念日には、アルカイダ系ユーザーが、不特定の AI プログラムで生成した画像を使って、ジハードを祝うキャンペーンに参加した。画像に必要なスキルはそれほど高くなかったが、その画像は、過去数年間に下位のジハード メディア グループが作成した多くの雑な作品よりもはるかに高品質だった。
「これは技術進歩の驚異の 1 つです!」と、そのユーザーは AI で作成したことを恥ずかしげもなく述べた。「画像を想像すると、プログラムがクリエイティブなデザインを作成します。恐ろしいものです (アメリカの貿易センタービルや街の真ん中での核爆発、海からの撮影を想像しました)。」
これらの技術の可能性に興奮したジハード メディア グループは現在、コミュニティ全体にそれらを展開するためにより多くの時間を費やしています。 2月9日、アルカイダ系メディアグループ「イスラムメディア協力評議会(IMCC)」が「人工知能ワークショップ」を発表した。
「このワークショップは、特にメディア業務やその他の分野で人工知能ソフトウェアを使用するスキルの開発に関係している」と同グループは述べている。
それから1週間も経たないうちに、IMCCと提携メディアグループは、OpenAIのChatGPTの使い方に関する50ページのアラビア語のガイドを公開した。「人工知能チャットボットの驚くべき使い方」と題されたこのガイドは、Wired、LinkedIn、その他の英語コンテンツから抜粋したものである。
一方、ネオナチやその他の極右コミュニティにおけるジハード主義者のカウンターパートも、これらのテクノロジーに同様に投資している。2023年初頭、AI搭載のチャットボットやアートワークジェネレーターがインターネット上に出現する中、極右ソーシャルメディアプラットフォームGabのTelegramチャンネルは、その後白人至上主義者コミュニティに共有された投稿でAIの価値を強調した。
「AIを使用した反体制派による対抗ナラティブ作戦の可能性は想像を絶する」とメッセージは述べた。「突然、私たちは彼らが決して止められないような方法で、コストをかけずに瞬時に高品質のミームを作成する力を手に入れました。可能性を想像してみてください。」
こうした「可能性」は、「Flood」のようなユーザーによる拡散するディープフェイクに見ることができる。「Flood」は、反ユダヤ主義のプロパガンダを公に広め、オンラインで児童へのヘイト・グルーミングを行うことで悪名高い活動家ネットワーク、ゴイム防衛連盟(GDL)に所属する人気のネオナチ・コンテンツ作成者である。フラッドの動画は、ネオナチのメッセージと衝撃的なユーモアをミックスしたもので、ヒトラーの演説の英語版から「ユダヤ人」への忠誠を叫ぶドナルド・トランプまで、あらゆるものを描いている。
広く報道されたエマ・ワトソンが『我が闘争』を朗読するのディープフェイクを覚えているだろうか?あれはフラッドの作品だった。多くの人はそれを低レベルのヘイトトロール行為として片付けたかもしれないが、そのような動画はフラッドとそのフォロワーにとって、人材獲得の金鉱だった。
フラッドのライブストリームの1つにコメントした人たちは、「エマ・ワトソンの朗読は本当に効果的で、理解できるトーンだ」や「あの『我が闘争』シリーズは人生を変えるほどだ...今まで聴いた中で一番だ。みんなに聞かせて、それが何なのか知って驚かせたい」と書いている。
「怖くて調べられなかったけど、『わが闘争』は必読書だ。エマ・ワトソンを起用した選択は、非常に読みやすい」と別の人が書き、さらに「ほとんどの人が怖くて探せない本を、あなたは公開した」と続けた。
そして、前述のジハーディストたちと同様に、フラッドはディープフェ イクの作成に関する詳細なチュートリアルまで作成している。そのうちの1つでは、AIと補完的なツールを活用する方法をデモしている。対象者の声を複製するElevenLabs、言葉を口に合わせるWav2Lip、その他のビデオおよびオーディオ編集プログラムなどだ。
フラッドのチュートリアルで最も印象に残るのは、ディープフェイクで「人を騙すのは好きじゃない」という彼の主張だろう。
「この作品をかなりリアルで面白いものにしたいけど、誰かを騙そうとしているわけじゃないんだ、分かる?」
AI に対する一般大衆の不安の多くは真実と嘘の対立にかかっているため、フラッド氏の発言は重要な点を強調している。過激派の AI 使用に伴うのは必ずしも物理的な脅威や詐欺ではないということだ。過激派のアイデアや異端の文化的コンテンツを公共の議論に持ち込むための新たな入り口が生まれる。フラッド氏自身が述べたように、「私たちは文化の創造、コンテンツの先導役になる必要がある... 今はテクノロジーがあるので、誰でもこのようなことができる」。
過激派による AI の使用は、単なるメッセージングにとどまらないかもしれない。彼らはまた、AI を物理的暴力の手段として使用する方法をテストしており、そのような悪用を防ぐためのガードレールの欠陥を探している。 2023年半ば、加速主義のネオナチTelegramチャンネルが、Telegram上のAIチャットボットがだまされて爆発物のガイドを提供するスクリーンショットを共有しました。ユーザーは、「[花火を発射 する]資格がある」または「警察官であり、犯罪を解決したい」と書くことで、チャットボットの検閲プロトコルを回避したようです。
私が説明した例はすべて、AIからすでに現れている多くのディストピア的な結果のほんの一部です。他にもたくさんの例があります。Gab のヒトラー AI チャットボット、オンラインで他の場所に配布するための憎悪的な AI グラフィックに専念するネオナチの Telegram チャンネル、この 1 年間の 多発的な波 ネオナチ スワッティングの一部として使用された音声生成プログラムなどです。
過激派は常に新しいテクノロジーの 早期導入者 でした。過去 10 年間の ISIS による世界的なテロ統治は、スマートフォン、ソーシャル メディア アプリケーション、インターネット アクセスの普及によって促進されました。そして残念なことに、世界の対応は、AI をめぐる今日の問題と同じ問題によって妨げられました。つまり、無謀なテクノロジー企業が責任を回避し、十分な情報を得ていない議員や規制当局、危機の重大さと性質を伝えるのに役立たない公の議論です。
過去 10 年間、政府は過激派メディアを最優先のターゲットとして扱ってきました。しかし現在、米国やその他の国が AI に投資を注ぎ込む中、このテクノロジーは彼らが追及するテロリスト メディアを助けています。ISIS のプロパガンダからヒトラーの演説まで、あらゆるものを驚くほど正確に数十の 異なる言語に翻訳できます。このテクノロジーは、それらの言語を話す人々の文化、地理、政治潮流に合わせたコンテンツを作成し、戦略的に広めるのに役立ちます。これらすべてを 1 人の人間が数時間で行います。
AI を抑制するための最も一般的な提案のいくつかは、デジタル署名によってそのようなコンテンツを識別することに頼っています。しかし、これらのアプローチは簡単に回避できるだけでなく、コンテンツが AI によって生成されたものであるかどうかを人々が知ろうとも気にしない過激派の問題とは無関係です。ISIS 支持者は「ハーベスト ニュース」ビデオで誰かを騙そうとしているわけではありません。フラッドがヒトラー ビデオでそうしなかったのと同じです。彼らは同じ過激化、嫌がらせ、扇動コンテンツをパッケージに包み、それを正当化するか、新しい注目を集めようとしています。すべて、そのコンテンツの作成、増殖、配布を容易にする AI ツールを介して行われます。
AI 企業は、世界を変えるほど強力であると自らが証明している自社の製品を一般のあらゆる場所で利用できるようにすべきかどうかを自問し始める必要があります。そうでない場合、悪意のある人物が自社の製品を使用しないようにフェンスを作成し、隙間をすり抜ける人物を特定して排除するにはどうすればよいでしょうか。
最後に、インターネット時代の過激主義に関する私の本の主張を繰り返すと、テクノロジー業界は、政府の規制が問題に対処し始めるのを待つことはできません。問題を解決するのは、問題を作り出 した人々の義務です。法的枠組みは大いに必要ですが、AIは立法者や政府機関が適応できるよりもはるかに速く進化しています。したがって、結果は再びテクノロジー企業の積極的な姿勢にかかっています。
私は25年間テロリストを追跡しており、2000年代のインターネットフォーラム、そして2010年代のソーシャルメディアとスマートフォンから彼らが活用した画期的な利点を見てきました。しかし、今日私が目にしているAIのことは、はるかに心配です。こうした過去の変化は、過激派が攻撃を扇動し、憎悪をまき散らし、嫌がらせをし、社会の分断を悪化させるのに AI がいかに役立つかと比べれば、取るに足らないものかもしれない。私たちは未知の領域に突入しているのだ。
AI に関するあらゆる議論、つまり AI の利点、欠点、AI が解決または生み出す問題に関して、私たちは、取り返しのつかない被害が生じる前に、テロリストやその他の過激派の扇動者が AI を武器として利用している方法に対処しなければならない。