Incidentes Asociados

Google ha sido criticado recientemente por un "fallo" objetivamente racista encontrado en su nueva aplicación Fotos para iOS y Android que identifica a las personas negras como "gorilas".
En teoría, se supone que Fotos actúa como un asistente digital inteligente. Sus algoritmos subyacentes pueden categorizar todo el carrete de la cámara en función de una serie de factores diferentes, como la fecha, la ubicación y el tema. Aparentemente, sin embargo, al menos un usuario negro informó que la aplicación lo clasificó a él y a un amigo negro como "gorilas", en lugar de personas.
El domingo, el usuario de Google Photos, Jacky Alcine, tuiteó una captura de pantalla de la aplicación que mostraba varias imágenes organizadas en diferentes álbumes. Si bien el algoritmo de la aplicación pudo identificar correctamente las imágenes de una "graduación", "rascacielos" y "aviones", etiquetó las fotos de Alcine y una amiga como gorilas.
https://twitter.com/jackyalcine/status/615329515909156865/
https://twitter.com/jackyalcine/status/615331869266157568/
Yontan Zunger, un ingeniero de software sénior de Google, respondió rápidamente en Twitter a Alcine, asegurándole que el error era un error que se corregiría de inmediato. Alcine, para su crédito, explicó que entendía cómo los algoritmos pueden identificar erróneamente las cosas de una manera que los humanos no hacen, pero cuestionó por qué este tipo de problema en particular seguía siendo un problema para un gigante del software como Google.
“Estamos consternados y realmente lamentamos que esto haya sucedido”, decía una declaración oficial de Google sobre el asunto. “Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.
Si bien es agradable que Google nos asegure que algo como esto es un caso extraño de codificación que salió mal, no es la primera vez que vemos que el software muestra un sesgo implícito contra las personas de color.
Uno de los casos más conocidos de tecnología que desairó a sus propietarios llegó en forma de cámaras digitales asumiendo que sus ojos estaban cerrados mientras sonreían. Los sensores de las cámaras confundieron la forma de los ojos asiáticos y los interpretaron como un parpadeo, lo que provocó que la cámara marcara las fotos tomadas como defectuosas.
Lamentablemente, hay más.
Se ha observado que el software creado para admitir una serie de sensores diferentes utilizados en cámaras digitales y cámaras web no puede percibir a las personas con tonos de piel más oscuros.
En 2010, una serie de computadoras HP se vieron muy afectadas por estas llamadas cámaras web "racistas". Cinco años después, errores similares basados en software todavía afectan a servicios como Flickr. El mes pasado, Flickr implementó un algoritmo similar en su popular red para compartir fotos que prometía ayudar a los usuarios a etiquetar sus fotos de manera más efectiva. La función identificó tanto a un hombre negro como a una mujer blanca como simios en dos ocasiones distintas. Baste decir que este problema no va a desaparecer exactamente.
Anuncio publicitario
Los errores se cometen porque los algoritmos, por inteligentes que sean, son terribles para dar sentido real a las imágenes que analizan. En lugar de "ver" una cara, los algoritmos identifican formas, colores y patrones para hacer conjeturas informadas sobre cuál podría ser realmente la imagen. Esto funciona maravillosamente para objetos inanimados o cosas icónicas como puntos de referencia, pero se ha demostrado que es un punto conflictivo para las personas de color una y otra vez.
Quizás si los titanes de Silicon Valley contrataran a más ingenieros de color, cosas como esta no pasarían tan a menudo. O, ya sabes, alguna vez.