Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 95

Incidentes Asociados

Incidente 1624 Reportes
Images of Black People Labeled as Gorillas

Google eliminó a los gorilas de la búsqueda para corregir el algoritmo racista
nymag.com · 2018

Han pasado más de dos años desde que el ingeniero Jacky Alciné llamó a Google Photos por etiquetar automáticamente a las personas negras en sus fotos como "gorilas". Después de ser llamado, Google se disculpó rápida y profusamente, prometiendo que solucionaría los problemas en el algoritmo. “Se está haciendo mucho trabajo y queda mucho por hacer”, tuiteó Yonatan Zunger, arquitecto jefe de redes sociales en Google, según CNET. “Estamos muy metidos en eso”. Es 2018, y parece que "en él" solo significaba una solución de mala calidad que implicaba bloquear todas las cosas que el algoritmo identificó como "gorila" para que no fueran etiquetadas, en caso de que el algoritmo optara por etiquetar a una persona negra nuevamente.

Google Fotos, todos jodidos. Mi amigo no es un gorila. pic.twitter.com/SMkMCsNVX4 — Jackyalciné tiene aproximadamente un 40% en IndieWeb. (@jackyalcine) 29 de junio de 2015

Wired descubrió la "solución" en una serie de pruebas usando 40,000 imágenes que contenían animales y ejecutándolas a través de Google Photos. “[Google Photos] se desempeñó de manera impresionante al encontrar muchas criaturas, incluidos pandas y caniches”, informa la revista. "Pero el servicio no reportó resultados para los términos de búsqueda 'gorila', 'chimpancé', 'chimpancé' y 'mono'". El programa pudo encontrar algunos primates, incluidos babuinos, gibones y titíes. Los monos capuchinos y colobos también se identificaron correctamente, siempre que la palabra mono no se incluyera en la búsqueda. Las búsquedas de "hombre negro" y "mujer negra" arrojaron fotos de personas del género elegido en blanco y negro, en lugar de una raza determinada.

Un portavoz de Google confirmó a Wired que varios términos de primates, incluido "gorila", aún están bloqueados luego del incidente de 2015. “La tecnología de etiquetado de imágenes aún es temprana y, lamentablemente, no es perfecta”, dijo el portavoz. No está claro si la tecnología de etiquetado de imágenes es "todavía temprana": han pasado varios años, uno pensaría que Google podría haber descubierto algunas cosas en ese tiempo, o si Google solo tiene cuidado de evitar ser llamado racista, nuevamente. Alternativamente, arreglar correctamente Google Photos simplemente no vale la pena el dinero y el tiempo para Google. Es más fácil ponerle una curita y pretender que los gorilas, y mucho peor, los negros, no existen en sus fotos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f