Incidentes Asociados

Google Photos utiliza un sofisticado software de reconocimiento facial para identificar no solo a las personas, sino también a categorías específicas de objetos y tipos de fotografías, como comida, gatos y horizontes.
Sin embargo, los programas de reconocimiento de imágenes están lejos de ser perfectos; a veces se equivocan cómicamente y, a veces, de manera ofensiva, como descubrió recientemente un usuario de Twitter.
VEA TAMBIÉN: Facebook desarrolla tecnología que puede reconocerlo en fotos, incluso si su rostro no se muestra
Al navegar por su aplicación Google Fotos, Jacky Alciné, residente de Brooklyn, notó que las fotos de él y un amigo, ambos negros, estaban etiquetadas con la etiqueta "Gorilas". Compartió una captura de pantalla de la etiqueta racista en Twitter, que fue detectada por Yahoo Tech.
Google Fotos, todos jodidos. Mi amigo no es un gorila. pic.twitter.com/SMkMCsNVX4
— diri noir avec banan (@jackyalcine) 29 de junio de 2015
Yonatan Zunger, arquitecto social en jefe de Google, respondió rápidamente.
@jackyalcine Santa mierda. G+ CA aquí. No, así no se determina el mercado objetivo de alguien. Esto es 100% incorrecto.
— Yonatan Zunger (@yonatanzunger) 29 de junio de 2015
En una tormenta de tuits posterior, Zunger dijo que Google estaba reuniendo a un equipo para abordar el problema y que la etiqueta se eliminó de su aplicación en 15 horas, confirmó Alciné a Mashable. Zunger dijo que Google también estaba buscando soluciones a más largo plazo. Un portavoz de Google también envió una declaración oficial:
“Estamos consternados y realmente lamentamos que esto haya sucedido. Estamos tomando medidas inmediatas para evitar que este tipo de resultado aparezca. Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.
Desafortunadamente, esta no es la primera vez que un software difama inadvertidamente a personas de piel oscura. En mayo, la función de etiquetado automático de Flickr etiquetó a una persona negra como un "mono", aunque también puso la misma etiqueta a una mujer blanca. Y hace años, algunas cámaras web en las computadoras portátiles fabricadas por HP no rastreaban las caras de las personas negras, aunque sí lo hacían con las de los usuarios blancos.
Al menos en el caso de Google Photos, el incidente parece ser aislado, ya que no parece que otros usuarios hayan presentado quejas similares de etiquetas ofensivas. Pero es un recordatorio de que, aunque las computadoras están comenzando a hacer un muy buen trabajo simulando la visión humana, están muy lejos de simular la sensibilidad humana.