Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 90

Incidentes Asociados

Incidente 1623 Reportes
Images of Black People Labeled as Gorillas

Loading...
Google Photos identificó a los negros como 'gorilas', pero el software racista no es nuevo
splinternews.com · 2015

Google ha sido criticado recientemente por un "fallo" objetivamente racista encontrado en su nueva aplicación Fotos para iOS y Android que identifica a las personas negras como "gorilas".

En teoría, se supone que Fotos actúa como un asistente digital inteligente. Sus algoritmos subyacentes pueden categorizar todo el carrete de la cámara en función de una serie de factores diferentes, como la fecha, la ubicación y el tema. Aparentemente, sin embargo, al menos un usuario negro informó que la aplicación lo clasificó a él y a un amigo negro como "gorilas", en lugar de personas.

El domingo, el usuario de Google Photos, Jacky Alcine, tuiteó una captura de pantalla de la aplicación que mostraba varias imágenes organizadas en diferentes álbumes. Si bien el algoritmo de la aplicación pudo identificar correctamente las imágenes de una "graduación", "rascacielos" y "aviones", etiquetó las fotos de Alcine y una amiga como gorilas.

https://twitter.com/jackyalcine/status/615329515909156865/

https://twitter.com/jackyalcine/status/615331869266157568/

Yontan Zunger, un ingeniero de software sénior de Google, respondió rápidamente en Twitter a Alcine, asegurándole que el error era un error que se corregiría de inmediato. Alcine, para su crédito, explicó que entendía cómo los algoritmos pueden identificar erróneamente las cosas de una manera que los humanos no hacen, pero cuestionó por qué este tipo de problema en particular seguía siendo un problema para un gigante del software como Google.

“Estamos consternados y realmente lamentamos que esto haya sucedido”, decía una declaración oficial de Google sobre el asunto. “Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.

Si bien es agradable que Google nos asegure que algo como esto es un caso extraño de codificación que salió mal, no es la primera vez que vemos que el software muestra un sesgo implícito contra las personas de color.

Uno de los casos más conocidos de tecnología que desairó a sus propietarios llegó en forma de cámaras digitales asumiendo que sus ojos estaban cerrados mientras sonreían. Los sensores de las cámaras confundieron la forma de los ojos asiáticos y los interpretaron como un parpadeo, lo que provocó que la cámara marcara las fotos tomadas como defectuosas.

Lamentablemente, hay más.

Se ha observado que el software creado para admitir una serie de sensores diferentes utilizados en cámaras digitales y cámaras web no puede percibir a las personas con tonos de piel más oscuros.

En 2010, una serie de computadoras HP se vieron muy afectadas por estas llamadas cámaras web "racistas". Cinco años después, errores similares basados en software todavía afectan a servicios como Flickr. El mes pasado, Flickr implementó un algoritmo similar en su popular red para compartir fotos que prometía ayudar a los usuarios a etiquetar sus fotos de manera más efectiva. La función identificó tanto a un hombre negro como a una mujer blanca como simios en dos ocasiones distintas. Baste decir que este problema no va a desaparecer exactamente.

Anuncio publicitario

Los errores se cometen porque los algoritmos, por inteligentes que sean, son terribles para dar sentido real a las imágenes que analizan. En lugar de "ver" una cara, los algoritmos identifican formas, colores y patrones para hacer conjeturas informadas sobre cuál podría ser realmente la imagen. Esto funciona maravillosamente para objetos inanimados o cosas icónicas como puntos de referencia, pero se ha demostrado que es un punto conflictivo para las personas de color una y otra vez.

Quizás si los titanes de Silicon Valley contrataran a más ingenieros de color, cosas como esta no pasarían tan a menudo. O, ya sabes, alguna vez.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd