Descripción: Google reported to Australia's eSafety Commission that it received 258 complaints globally about AI-generated deepfake terrorism content and 86 about child abuse material made with its Gemini AI. The regulator called this a "world-first insight" into AI misuse. While Google uses hash-matching to detect child abuse content, it lacks a similar system for extremist material.
Editor Notes: Timeline note: Google's reporting period for this data was April 2023 to February 2024. The information was widely reported on March 5, 2025.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Google y Gemini, perjudicó a General public , General public of Australia , Google Gemini users , Victims of deepfake terrorism content , Victims of deepfake child abuse y Victims of online radicalization.
Sistema de IA presuntamente implicado: Gemini
Estadísticas de incidentes
ID
963
Cantidad de informes
1
Fecha del Incidente
2025-03-05
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
SÍDNEY, 6 de marzo (Reuters) - Google informó a las autoridades australianas de que recibió más de 250 denuncias en todo el mundo durante casi un año de que su software de inteligencia artificial se utilizó para crear material de terrorismo…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents