Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1944

Incidentes Asociados

Incidente 3032 Reportes
Google’s Automated Child Abuse Detection Wrongfully Flagged a Parent’s Naked Photo of His Child

Loading...
La gran tecnología salió mal: Google bloquea cuentas basándose en un filtro falso de explotación infantil
siliconangle.com · 2022

La aplicación de la inteligencia artificial en varios aspectos de la vida ha sido mayormente positiva, pero ¿qué sucede cuando los algoritmos de aprendizaje automático no pueden detectar la diferencia entre una foto de salud inocente y material de explotación infantil?

The New York Times hoy informó que un trabajador tecnológico de San Francisco nombró solo a "Mark ”, quien irónicamente trabaja para una empresa de tecnología no identificada en el filtrado de contenido, fue prohibido por Google LLC por “una violación grave de las políticas de Google y podría ser ilegal” después de que su hijo se enfermara y le tomaran fotos. En este caso, el niño tenía un problema con su pene y después de que un profesional médico le preguntó, su esposa tomó fotos y las envió en línea a través de su cuenta de Google para una consulta.

La IA y el filtrado de Google etiquetaron las fotos como abuso infantil sin contextualizar la situación. Un bloqueo incorrecto o fuera de contexto de Google no sorprende demasiado. Sin embargo, lo que sucedió a continuación es posiblemente espantoso.

Google informó a las autoridades que el hombre, nombrado en el informe solo como Mark, traficaba con pornografía infantil y se inició una investigación policial. Afortunadamente, el Departamento de Policía de San Francisco entendió el contexto, pero casi dos años después, Google no lo ha hecho y Mark aún no puede acceder a su cuenta.

En respuesta a la historia del New York Times, el único comentario de Google fue "el material de abuso sexual infantil es abominable y estamos comprometidos a evitar su difusión en nuestras plataformas". Nadie podría discutir esa afirmación, pero en este caso, las fotos no eran material abusivo, sino un problema de salud legítimo.

El caso destaca cómo miles de millones de personas se han vuelto dependientes de las empresas de tecnología y cómo un simple falso positivo puede convertirse en algo mucho peor. En el caso de Mark, no solo perdió su cuenta de correo electrónico, su cuenta de Google Photos y su información de contacto, sino que también tenía un número de teléfono a través de Google Fi que también cerró Google. El número de teléfono de Google Fi estaba conectado a varias otras cuentas, lo que significa que también perdió el acceso a la autenticación de dos factores.

“Cuantos más huevos tenga en una canasta, es más probable que la canasta se rompa”, dijo Mark al Times.

El caso de Mark no es único. The Times también se refirió a un caso similar de un padre en Texas donde Google marcó fotos médicas tomadas y enviadas en línea como material abusivo. En el caso de Texas, al igual que en el caso de Mark, Google suspendió la cuenta del padre y los trabajadores de tecnología robótica en Mountain View rechazaron cualquier apelación.

Google y otras grandes empresas tecnológicas deberían buscar y filtrar de manera proactiva material abusivo. Sin embargo, que Google no pueda encontrar un empleado humano para analizar el contexto de la apelación y resolver la situación no es un reflejo positivo de Google y otras empresas tecnológicas.

Afortunadamente, tanto en el caso de Mark como en el caso de Texas, los problemas médicos con sus hijos se resolvieron, pero no existe una receta médica para tratar con Google y otras compañías tecnológicas una vez que se han decidido y etiquetaron falsamente a alguien como un niño. pornógrafo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd