Incidentes Asociados

La "acción inmediata" de Google sobre el etiquetado de personas negras como gorilas por parte de la IA fue simplemente bloquear la palabra, junto con chimpancé y mono, según sugieren los informes.
Este artículo tiene más de 1 año.
Este artículo tiene más de 1 año.
Después de que Google fuera criticado en 2015 por un algoritmo de reconocimiento de imágenes que autoetiquetaba imágenes de personas negras como "gorilas", la empresa prometió "acción inmediata" para evitar que se repitiera el error.
Esa acción fue simplemente para evitar que Google Photos etiquetara cualquier imagen como un gorila, un chimpancé o un mono, incluso imágenes de los propios primates.
Esa es la conclusión a la que llegó la revista Wired, que probó más de 40.000 imágenes de animales en el servicio. Las fotos etiquetaron con precisión imágenes de pandas y caniches, pero consistentemente no arrojaron resultados para los grandes simios y monos, a pesar de encontrar con precisión babuinos, gibones y orangutanes.
Google confirmó que los términos se eliminaron de las búsquedas y las etiquetas de imágenes como resultado directo del incidente de 2015, y le dijo a la revista que: "La tecnología de etiquetado de imágenes aún es temprana y, lamentablemente, no es perfecta".
La ceguera de los gorilas se encuentra en otros lugares de la plataforma de Google: Google Lens, una aplicación de cámara que identifica objetos en las imágenes, también se negará a reconocer a los gorilas. Pero el Asistente de Google identificará correctamente a los primates, al igual que el servicio de reconocimiento de imágenes de empresa a empresa de Google, Google Cloud Vision.
El hecho de que la empresa no haya desarrollado una solución más sostenible en los dos años siguientes pone de manifiesto hasta qué punto la tecnología de aprendizaje automático, que sustenta la función de reconocimiento de imágenes, aún está madurando.
Tales tecnologías se describen con frecuencia como una “caja negra”, capaz de producir resultados poderosos, pero con poca capacidad por parte de sus creadores para comprender exactamente cómo y por qué toman las decisiones que toman.
Eso es particularmente cierto en el caso de la primera ola de sistemas de reconocimiento de imágenes, de la que formaba parte Google Photos. Al mismo tiempo que se lanzó el producto, Flickr lanzó una función similar, el etiquetado automático, que tenía un conjunto de problemas casi idéntico.
La plataforma para compartir fotos propiedad de Yahoo calificó una foto de un hombre negro como "mono" y una foto del campo de concentración de Dachau como "gimnasio de la jungla". La respuesta de Flickr fue muy similar a la de Google: la compañía aparentemente eliminó por completo la palabra "simio" de su léxico de etiquetas.