Description: Google reported to Australia's eSafety Commission that it received 258 complaints globally about AI-generated deepfake terrorism content and 86 about child abuse material made with its Gemini AI. The regulator called this a "world-first insight" into AI misuse. While Google uses hash-matching to detect child abuse content, it lacks a similar system for extremist material.
Editor Notes: Timeline note: Google's reporting period for this data was April 2023 to February 2024. The information was widely reported on March 5, 2025.
Alleged: Google と Gemini developed and deployed an AI system, which harmed General public , General public of Australia , Google Gemini users , Victims of deepfake terrorism content , Victims of deepfake child abuse と Victims of online radicalization.
関与が疑われるAIシステム: Gemini
インシデントのステータス
インシデントID
963
レポート数
1
インシデント発生日
2025-03-05
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
シドニー、3月6日(ロイター) - グーグルはオーストラリア当局に対し、同社の人工知能ソフトがディープフェイクのテロ関連 コンテンツの作成に利用されたとの苦情が1年近くにわたり世界中で250件以上寄せられたと報告した。
アルファベット傘下のこのテクノロジー大手は、同社のAIプログラム「ジェミニ」が児童虐待コンテンツの作成に利用されているとのユーザーからの警告も数十件受けたとオーストラリアのeSafety委員会が発表した。
オーストラリアの法律では、テクノロジー企業はeSafet…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください