Incidentes Asociados

Imagen: Flickr/Verónica Jauriqui
Los concursos de belleza siempre han sido políticos. Después de todo, ¿qué habla con más fuerza de cómo nos vemos unos a otros que qué rasgos físicos recompensamos como hermosos y cuáles codificamos como feos? No fue sino hasta 1983 que el concurso Miss América coronó a una mujer negra como la mujer más bella del país.
¿Y qué si reemplazáramos a los jueces humanos con máquinas? Idealmente, un robot carecería de los prejuicios sociales a menudo dañinos de un humano. A pesar de lo superficial que es todo, ¿podría una computadora al menos ver más allá del color de la piel y observar, potencialmente, marcadores de atractivo más universales? O diablos, incluso apreciar un poco de melanina? No realmente, como resulta.
Beauty.ai, una iniciativa de los Laboratorios Juveniles con sede en Rusia y Hong Kong y con el apoyo de Microsoft y Nvidia, realizó un concurso de belleza con 600 000 participantes, quienes enviaron selfies de todo el mundo: India, China, toda África y el A NOSOTROS. Permitieron que un conjunto de tres algoritmos los juzgara según la simetría de su rostro, sus arrugas y qué tan jóvenes o viejos se veían para su edad. Los algoritmos no evaluaron el color de la piel.
Los resultados, publicados en agosto, fueron impactantes: de las 44 personas que los algoritmos juzgaron como las más "atractivas", todos los finalistas eran blancos excepto seis asiáticos. Solo un finalista tenía la piel visiblemente oscura.
¿Cómo diablos sucedió esto?
Imagen: Belleza.ai
Lo primero que debe saber es que los tres algoritmos utilizaron un estilo de aprendizaje automático llamado "aprendizaje profundo". En el aprendizaje profundo, un algoritmo se "entrena" en un conjunto de imágenes etiquetadas previamente para que, cuando se le presente una nueva imagen, pueda predecir con cierto grado de certeza lo que está viendo. En el caso de Beauty.ai, todos los algoritmos se entrenaron en bases de datos de aprendizaje automático de código abierto que se comparten entre investigadores.
El aprendizaje profundo es la forma más poderosa de inteligencia artificial que tenemos y es utilizado por empresas masivas como Alphabet y Facebook. Sin embargo, algunos trabajos recientes han descubierto que estos sistemas pueden albergar todo tipo de sesgos inesperados y muy humanos. Por ejemplo, recientemente se descubrió que un algoritmo de procesamiento del lenguaje clasifica los nombres blancos como más "agradables" que los nombres negros, lo que refleja experimentos psicológicos anteriores en humanos.
"Sucede que el color sí importa en la visión artificial"
El problema aquí es la falta de diversidad de personas y opiniones en las bases de datos utilizadas para entrenar la IA, que son creadas por humanos.
"Tuvimos este problema con nuestra base de datos para la estimación de arrugas, por ejemplo", dijo Konstantin Kiselev, director de tecnología de Youth Laboratories, en una entrevista. "Nuestra base de datos tenía mucha más gente blanca que, digamos, gente india. Debido a eso, es posible que nuestro algoritmo esté sesgado".
"Sucede que el color sí importa en la visión artificial", me escribió en un correo electrónico Alex Zhavoronkov, director científico de Beauty.ai. "y para algunos grupos de población, los conjuntos de datos carecen de una cantidad adecuada de muestras para poder entrenar las redes neuronales profundas".
El otro problema para el contenido de Beauty.ai en particular, dijo Kiselev, es que la gran mayoría (75 por ciento) de los participantes del concurso eran europeos y blancos. El siete por ciento eran de la India y el uno por ciento eran del continente africano. Son 40.000 indios y 9.000 personas de África que los algoritmos decidieron que no coincidían con la idea de belleza que habían sido entrenados para reconocer.
"Es posible que solo una pequeña cantidad de personas supiera sobre nuestro concurso en estos lugares", dijo Kiselev. "Las relaciones públicas eran el problema, y queremos hacer más alcance en otros países".
Beauty.ai llevará a cabo otro concurso de belleza en octubre, por lo que tendrán otra oportunidad de cumplir sus promesas con respecto a hacer un mejor trabajo al recolectar participantes de países fuera de Europa.
Leer más: Es nuestra culpa que la IA piense que los nombres blancos son más 'agradables' que los nombres negros
Sin embargo, la cuestión de cómo borrar el sesgo en las bases de datos es mucho más espinosa y recuerda desarrollos anteriores. La película de la cámara se diseñó originalmente para funcionar mejor con piel blanca en el marco, por ejemplo, lo que significa que hasta que la industria decidió corregir el problema base, cada cámara demostró un sesgo racista incluso en manos de fotógrafos aparentemente no racistas.
De hecho, Zhavoronkov me dijo que los algoritmos de Beauty.ai a veces descartaban las selfies de personas de piel oscura si la iluminación era demasiado tenue.
El aprendizaje profundo es similar en otro sentido: los investigadores comparten bases de datos de capacitación y marcos listos para usar, a menudo sin cambiarlos, lo que significa que los sesgos se reproducen en los algoritmos en todos los ámbitos, incluso si los propios científicos tienen las mejores intenciones.
La única forma de solucionar esto es cambiar parte del sistema mismo; en este caso, las redes de bases de datos están entrenadas.
"Lo que la industria necesita es un gran depósito centralizado de rostros anotados de alta calidad e imágenes anotadas de los diversos grupos étnicos disponibles públicamente para el público y para que las nuevas empresas puedan minimizar la discriminación racial".