Incidentes Asociados

Dos años después, Google resuelve el problema del 'algoritmo racista' al eliminar la etiqueta 'gorila' del clasificador de imágenes
En 2015, un desarrollador de software negro llamado Jacky Alciné reveló que el clasificador de imágenes utilizado por Google Photos etiquetaba a las personas negras como "gorilas".
Google se disculpó profusamente y se puso a trabajar en el error. Dos años más tarde, Google simplemente borró a los gorilas (y, al parecer, a los chimpancés y monos) del léxico de etiquetas que su clasificador de imágenes puede aplicar o buscar, lo que hace que estos animales no se puedan buscar y, en cierto sentido, sean invisibles para la IA que alimenta la imagen de Google. capacidades de búsqueda.
La capacidad de clasificar imágenes que contienen gorilas permanece en algunos productos de Google, como la API de Cloud Vision.
Un portavoz de Google confirmó que "gorila" fue censurado en búsquedas y etiquetas de imágenes después del incidente de 2015, y que "chimpancé", "chimpancé" y "mono" también están bloqueados hoy. “La tecnología de etiquetado de imágenes aún es temprana y, lamentablemente, no es perfecta”, escribió el portavoz en un correo electrónico, destacando una función de Google Photos que permite a los usuarios informar errores. La precaución de Google con respecto a las imágenes de gorilas ilustra una deficiencia de la tecnología de aprendizaje automático existente. Con suficientes datos y poder de cómputo, el software se puede entrenar para categorizar imágenes o transcribir el habla con un alto nivel de precisión. Pero no puede ir más allá de la experiencia de ese entrenamiento. E incluso los mejores algoritmos carecen de la capacidad de usar el sentido común o conceptos abstractos para refinar su interpretación del mundo como lo hacen los humanos.
Cuando se trata de gorilas, Google Fotos permanece ciego [Tom Simonite/Wired]