シドニー、3月6日(ロイター) - グーグルはオーストラリア当局に対し、同社の人工知能ソフトがディープフェイクのテロ関連コンテンツの作成に利用されたとの苦情が1年近くにわたり世界中で250件以上寄せられたと報告した。
アルファベット傘下のこのテクノロジー大手は、同社のAIプログラム「ジェミニ」が児童虐待コンテンツの作成に利用されているとのユーザーからの警告も数十件受けたとオーストラリアのeSafety委員会が発表した。
オーストラリアの法律では、テクノロジー企業はeSafety委員会に被害最小化の取り組みに関する情報を定期的に提供しなければ罰金を科せられる。報告対象期間は2023年4月から2024年2月まで。
OpenAIのChatGPTが2022年後半に世間の注目を集めて以来、世界中の規制当局は、AIがテロ、詐欺、ディープフェイクポルノ、その他の虐待を可能にするために使用されないように、より優れたガードレールを求めている。
オーストラリアのeSafety委員会は、Googleの開示を、ユーザーがこの技術を悪用して有害で違法なコンテンツを作成する方法についての「世界初の洞察」と呼んだ。
「これは、AI製品を開発する企業が、この種のコンテンツが生成されないようにするための安全策を組み込み、その有効性をテストすることがいかに重要であるかを強調している」とeSafety委員のジュリー・インマン・グラント氏は声明で述べた。
Googleは報告書の中で、Geminiを使用して作成されたAI生成の疑わしいディープフェイクテロリストまたは暴力的過激派コンテンツに関するユーザー報告を258件、AI生成の児童搾取または虐待コンテンツに関するユーザー報告を86件受け取ったと述べた。
規制当局によると、確認した苦情の件数は明らかにされていない。
グーグルの広報担当者は、暴力的過激主義やテロ、児童の搾取や虐待、その他の違法行為を助長するコンテンツの作成や配信は許可していないと述べた。
「当社は、オーストラリア国民のオンライン安全確保を支援する取り組みを拡大することに尽力しています」と広報担当者は電子メールで述べた。
「eSafetyに提供したGeminiユーザー報告の数は、確認されたポリシー違反ではなく、ユーザー報告の全世界の総量を表しています。」
グーグルは、Geminiで作成された児童虐待素材を特定して削除するために、ハッチマッチング(新しくアップロードされた画像と既知の画像を自動的に照合するシステム)を使用していた。
しかし、規制当局は、Geminiで作成されたテロリストや暴力的過激主義の素材を排除するために同じシステムを使用していなかったと付け加えた。
規制当局は、報告書に欠陥があったとして、TelegramとTwitter(後にXに改名)に罰金を科した。 Xは61万500豪ドル(38万2000米ドル)の罰金について1度控訴して敗訴しているが、再度控訴する予定だ。Telegramも罰金に異議を申し立てる予定だ。