Incidentes Asociados

Cuando Jacky Alcine, nativo de Brooklyn, inició sesión en Google Photos el domingo por la noche, se sorprendió al encontrar un álbum titulado "Gorillas", en el que el software de reconocimiento facial los clasificaba a él y a su amigo como primates. Inmediatamente, Alcine publicó en Twitter: “Google Photos, todos jodidos. Mi amigo no es un gorila. Este comentario provocó más de 1000 retuits y una discusión en línea sobre lo impactante que era la situación. Un usuario respondió: “Eso es completamente inaceptable y muy bajo. Lamento mucho que hayas tenido que encontrarte con una ignorancia tan hiriente”.
Alcine agregó una serie de tweets de seguimiento, incluido uno que decía: “Al igual que entiendo CÓMO sucede esto; el problema está más en el POR QUÉ. Así es como determinas el mercado objetivo de alguien”.
Yonatan Zunger, el principal arquitecto de redes sociales de Google, se apresuró a abordar el problema. A las pocas horas de la publicación original de Alcine, Zunger tuiteó: “Santo cielo. G+ CA aquí. No, así no se determina el mercado objetivo de alguien. Esto está 100% mal”. El equipo inmediatamente se puso a trabajar para examinar los datos y solucionar el problema. Zunger hizo un seguimiento con Alcine a la mañana siguiente solo para asegurarse de que todo estaba bien.
“Estamos consternados y realmente lamentamos que esto haya sucedido”, dijo un portavoz de Google. “Estamos tomando medidas inmediatas para evitar que aparezca este tipo de resultado. Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.
Es importante tener en cuenta que los afroamericanos no son el único grupo mal etiquetado por Google Photos. Como señala Zunger en un tweet, “Hasta hace poco, [Google Photos] confundía caras blancas con perros y focas. El aprendizaje automático es difícil".
Brian Brackeen, director ejecutivo de la empresa de reconocimiento facial Kairos, dice que las máquinas pueden hacer suposiciones culturalmente inapropiadas cuando no están debidamente capacitadas. “Es aterradoramente similar a cómo aprende un niño”, dijo.
Esta no es la primera vez que el software de reconocimiento facial, que se basa en el aprendizaje automático y la visión por computadora, ha estropeado su identificación de personas.
El pasado mes de mayo, el software de reconocimiento facial de Flickr etiquetó a las personas blancas y negras como "animales" y "simios" (estas etiquetas se eliminaron de inmediato). Además, muchas fotos de bailarines nativos americanos estaban etiquetadas con la palabra “disfraz”, lo que añadía un gran insulto a la comunidad.
En 2009, las cámaras de detección de rostros de Nikon fueron acusadas de ser “racistas”. Muchas veces, cuando se fotografiaba un rostro asiático, aparecía un mensaje en la pantalla que preguntaba: "¿Alguien parpadeó?". — incluso cuando tenían los ojos bien abiertos. Como empresa japonesa, Nikon aparentemente se olvidó de diseñar su cámara con los ojos asiáticos en mente.
Unos meses después de la controversia de Nikon, un video de Youtube sobre una computadora HP MediaSmart se volvió viral. Aunque fue diseñado para seguir los rostros de todos los usuarios, no podía reconocer al hombre afroamericano que se movía frente a él. Sin embargo, rápidamente comenzó a rastrear el rostro de una mujer blanca tan pronto como caminaba frente a la cámara.
Estos puntos no son para avergonzar a Google, Nikon o HP, que son empresas que no tienen intenciones maliciosas detrás de su software de reconocimiento facial. El software seguirá estando lejos de ser perfecto en el futuro previsible.