Registro de citas para el Incidente 303

Description: Google’s automated detection of abusive images of children incorrectly flagged a parent’s photo intended for a healthcare provider, resulting in a false police report of child abuse, and loss of access to his online accounts and information.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Google, perjudicó a a software engineer named Mark y parents using telemedicine services.

Estadísticas de incidentes

ID
303
Cantidad de informes
2
Fecha del Incidente
2022-08-21
Editores
Khoa Lam
Un papá tomó fotos de su hijo pequeño desnudo para el médico. Google lo marcó como un criminal.
nytimes.com · 2022

Mark notó que algo andaba mal con su niño pequeño. El pene de su hijo se veía hinchado y le dolía. Mark, un padre que se queda en casa en San Francisco, tomó su teléfono inteligente Android y tomó fotos para documentar el problema y poder s…

La gran tecnología salió mal: Google bloquea cuentas basándose en un filtro falso de explotación infantil
siliconangle.com · 2022

La aplicación de la inteligencia artificial en varios aspectos de la vida ha sido mayormente positiva, pero ¿qué sucede cuando los algoritmos de aprendizaje automático no pueden detectar la diferencia entre una foto de salud inocente y mate…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.