Incidentes Asociados

Derechos de autor de la imagen Twitter Image caption Alcine tuiteó a Google sobre el hecho de que su aplicación había clasificado erróneamente su foto.
Google dice que está "horrorizado" de que su nueva aplicación Fotos haya etiquetado erróneamente a una pareja negra como "gorilas".
Su producto etiqueta automáticamente las imágenes cargadas utilizando su propio software de inteligencia artificial.
El error fue señalado por un desarrollador de software con sede en Nueva York que era una de las personas que aparecen en las fotos involucradas.
Posteriormente, Google fue criticado en las redes sociales por las connotaciones racistas de la etiqueta.
"Esto no está bien al 100%", reconoció el ejecutivo de Google, Yonatan Zunger, luego de ser contactado por Jacky Alcine a través de Twitter.
"[Estaba] en lo más alto de mi lista de errores que 'nunca' quieres que suceda".
Zunger dijo que Google ya había tomado medidas para evitar que otros experimentaran un error similar.
Derechos de autor de la imagen Twitter Image caption Alcine dijo que el error había afectado varias fotos de su colección.
Agregó que "también estaba trabajando en arreglos a largo plazo en torno a la lingüística (palabras con las que hay que tener cuidado en las fotos de personas) y el reconocimiento de imágenes en sí mismo, por ejemplo, un mejor reconocimiento de rostros de piel oscura".
Esta no es la primera vez que Google Photos ha etiquetado erróneamente una especie como otra.
El sitio de noticias iTech Post señaló que la aplicación estaba etiquetando fotos de perros como caballos en mayo.
Los usuarios pueden eliminar clasificaciones de fotos mal identificadas dentro de la aplicación, lo que debería ayudarla a mejorar su precisión con el tiempo, una tecnología conocida como aprendizaje automático.
Derechos de autor de la imagen Twitter Image caption Google ha enfrentado críticas desde que se hizo público el error.
Sin embargo, Google ha reconocido la sensibilidad del último error.
"Estamos consternados y realmente lamentamos que esto haya sucedido", dijo una portavoz a la BBC.
“Estamos tomando medidas inmediatas para evitar que este tipo de resultado se presente.
"Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro".
Pero Alcine le dijo a la BBC que todavía tenía preocupaciones.
"Tengo algunas preguntas, como qué tipo de imágenes y personas se usaron en su preparación inicial que condujo a resultados como estos", dijo.
"[Google ha] mencionado una búsqueda más intensa para que los candidatos de personas de color crucen la puerta, pero solo el tiempo dirá si eso sucederá y ayudará a corregir la imagen que las empresas de Silicon Valley tienen con la diversidad interseccional: el acto de unificar múltiples frentes de personas desfavorecidas para que sus voces sean escuchadas y no silenciadas".