概要: GoogleはオーストラリアのeSafety委員会に対し、AIが生成したディープフェイクのテロ関連コンテンツに関する苦情が世界中で258件、同社のGemini AIで作成された児童虐待コンテンツに関する苦情が86件あったと報告した。規制当局はこれをAIの悪用に関する「世界初の知見」と称した。Googleは児童虐待コンテンツの検出にハッシュマッチングを使用しているが、過激派コンテンツについては同様のシステムを備えていない。
Editor Notes: Timeline note: Google's reporting period for this data was April 2023 to February 2024. The information was widely reported on March 5, 2025.
推定: Google と Geminiが開発し提供したAIシステムで、General public , General public of Australia , Google Gemini users , Victims of deepfake terrorism content , Victims of deepfake child abuse と Victims of online radicalizationに影響を与えた
関与が疑われるAIシステム: Gemini
インシデントのステータス
インシデントID
963
レポート数
1
インシデント発生日
2025-03-05
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
シドニー、3月6日(ロイター) - グーグルはオーストラリア当局に対し、同社の人工知能ソフトがディープフェイクのテロ関連コンテンツの作成に利用されたとの苦情が1年近くにわたり世界中で250件以上寄せられたと報告した。
アルファベット傘下のこのテクノロジー大手は、同社のAIプログラム「ジェミニ」が児童虐待コンテンツの作成に利用されているとのユーザーからの警告も数十件受けたとオーストラリアのeSafety委員会が発表した。
オーストラリアの法律では、テクノロジー企業はeSafet…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデン トとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents