Incidentes Asociados

Google se disculpó después de que su nueva aplicación de fotos etiquetara a dos personas negras como "gorilas".
El servicio de fotografías, lanzado en mayo, etiqueta automáticamente las imágenes cargadas utilizando su propio software de inteligencia artificial.
“Google Fotos, todos jodidos. Mi amigo no es un gorila”, tuiteó Jacky Alciné el domingo después de que la aplicación etiquetara erróneamente una foto de él y un amigo como “gorilas”.
Google Fotos, todos jodidos. Mi amigo no es un gorila. pic.twitter.com/SMkMCsNVX4
— diri noir avec banan (@jackyalcine) 29 de junio de 2015
Poco después, Yonatan Zunger, el arquitecto principal de las redes sociales en Google, se puso en contacto con Alciné.
“Muchas gracias por ayudarnos a arreglar esto: hace una diferencia real”, tuiteó Zunger a Alciné.
Continuó diciendo que los problemas en el reconocimiento de imágenes pueden ser causados por rostros oscurecidos y "se necesita un procesamiento de contraste diferente para diferentes tonos de piel e iluminación".
“Solíamos tener un problema con las personas (de todas las razas) que eran etiquetadas como perros, por razones similares”, dijo. “También estamos trabajando en arreglos a largo plazo tanto en términos lingüísticos (palabras con las que hay que tener cuidado en las fotos de personas) como en el reconocimiento de imágenes (por ejemplo, un mejor reconocimiento de rostros de piel oscura). Mucho trabajo por hacer y mucho por hacer, pero estamos muy metidos en ello”.
Google pide disculpas por los resultados de búsqueda racistas de la Casa Blanca en Google Maps
Las etiquetas racistas también han sido un problema en Google Maps. A principios de este año, las búsquedas de "casa de negros" en todo el mundo y las búsquedas de "rey de negros" en Washington DC arrojaron resultados para la Casa Blanca, la residencia del presidente de EE. UU., Barack Obama. Tanto en ese momento como a principios de esta semana, Google se disculpó y dijo que estaba trabajando para solucionar el problema.
“Estamos consternados y realmente lamentamos que esto haya sucedido”, dijo una portavoz de Google a la BBC el miércoles. “Estamos tomando acciones inmediatas para evitar que este tipo de resultado se presente. Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.
Google no es la única plataforma que intenta resolver errores en su etiquetado automático de imágenes.
En mayo, el sistema de etiquetado automático de Flickr fue objeto de escrutinio después de que etiquetara imágenes de personas negras con etiquetas como "mono" y "animal". El sistema también etiquetó imágenes de campos de concentración con "deporte" o "gimnasio de la selva".
“Somos conscientes de los problemas con las etiquetas automáticas inexactas en Flickr y estamos trabajando para solucionarlo. Si bien estamos muy orgullosos de esta avanzada tecnología de reconocimiento de imágenes, somos los primeros en admitir que habrá errores y trabajamos constantemente para mejorar la experiencia”, dijo un portavoz de Flickr en ese momento.
“Si elimina una etiqueta incorrecta, nuestro algoritmo aprende de ese error y funcionará mejor en el futuro. El proceso de etiquetado está completamente automatizado: ningún ser humano verá sus fotos para etiquetarlas”.