Incidentes Asociados
El algoritmo de reconocimiento de imágenes de Google está etiquetando fotos de personas negras como gorilas y colocándolas en un álbum especial.
El software de reconocimiento automático tiene como objetivo detectar las características de las fotos y clasificarlas juntas, de modo que todas las imágenes de automóviles en la biblioteca de una persona se puedan encontrar en un solo lugar, por ejemplo. Pero la herramienta parece estar identificando a las personas negras como animales.
El problema fue detectado por Jacky Alcine, quien dijo que las fotos tomadas con un amigo se clasificaban en la etiqueta de gorila. Allí no aparecían más imágenes que las de él y su amigo, dijo Alcine.
Un ingeniero de Google, Yonatan Zunger, tuiteó a Alcine para decirle que el problema se había solucionado, aunque Alcine informó que aún aparecían imágenes en la categoría.
Los tuits de Zunger parecían sugerir que la herramienta había dejado de identificar imágenes con la etiqueta de gorila para evitar que el problema afectara a cualquier otra persona. Dijo que los ingenieros también mejorarían el código a largo plazo.
“Estamos consternados y realmente lamentamos que esto haya sucedido”, dijo Google en un comunicado. “Estamos tomando acciones inmediatas para evitar que este tipo de resultado se presente.
“Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.
El problema es casi idéntico al que afectó al sitio de fotos Flickr a principios de este año, cuando introdujo una funcionalidad muy similar. Eso etiquetó accidentalmente a las personas negras como un "mono" y un "animal", junto con otras etiquetas ofensivas como llamar a las puertas de Dachau un "gimnasio de la jungla".