Incidentes Asociados

El primer concurso internacional de belleza decidido por un algoritmo ha generado controversia luego de que los resultados revelaran un factor evidente que vincula a los ganadores.
Se suponía que el primer concurso internacional de belleza juzgado por "máquinas" utilizaría factores objetivos como la simetría facial y las arrugas para identificar a los concursantes más atractivos. Después del lanzamiento de Beauty.AI este año, aproximadamente 6000 personas de más de 100 países enviaron fotos con la esperanza de que la inteligencia artificial, respaldada por algoritmos complejos, determinara que sus rostros se parecían más a la "belleza humana".
Pero cuando llegaron los resultados, los creadores se sintieron consternados al ver que había un factor evidente que vinculaba a los ganadores: a los robots no les gustaban las personas de piel oscura.
De los 44 ganadores, casi todos eran blancos, unos pocos eran asiáticos y solo uno tenía piel oscura. Eso a pesar del hecho de que, aunque la mayoría de los concursantes eran blancos, muchas personas de color enviaron fotos, incluidos grandes grupos de India y África.
La controversia resultante ha provocado debates renovados sobre las formas en que los algoritmos pueden perpetuar los sesgos, produciendo resultados no deseados y, a menudo, ofensivos.
Cuando Microsoft lanzó el chatbot "millennial" llamado Tay en marzo, rápidamente comenzó a usar lenguaje racista y a promover puntos de vista neonazis en Twitter. Y después de que Facebook eliminó a los editores humanos que habían curado noticias de "tendencia" el mes pasado, el algoritmo inmediatamente promovió historias falsas y vulgares en las noticias, incluido un artículo sobre un hombre masturbándose con un sándwich de pollo.
Facebook despide al equipo de tendencias y el algoritmo sin humanos se vuelve loco Leer más
Si bien el concurso de belleza aparentemente racista ha provocado bromas y burlas, los expertos en informática y los defensores de la justicia social dicen que en otras industrias y arenas, el uso creciente de sistemas de inteligencia artificial prejuiciosos no es motivo de risa. En algunos casos, puede tener consecuencias devastadoras para las personas de color.
Beauty.AI, que fue creado por un grupo de "aprendizaje profundo" llamado Youth Laboratories y respaldado por Microsoft, se basó en grandes conjuntos de datos de fotos para construir un algoritmo que evaluara la belleza. Si bien hay una serie de razones por las que el algoritmo favoreció a las personas blancas, el principal problema fue que los datos que utilizó el proyecto para establecer estándares de atractivo no incluían suficientes minorías, dijo Alex Zhavoronkov, director científico de Beauty.AI.
Aunque el grupo no construyó el algoritmo para tratar la piel clara como un signo de belleza, los datos de entrada llevaron efectivamente a los jueces del robot a llegar a esa conclusión.
Facebook Twitter Pinterest Ganadoras del concurso Beauty.AI en la categoría de mujeres de 18 a 29 años. Fotografía: http://winners2.beauty.ai/#win
“Si no tiene tantas personas de color dentro del conjunto de datos, es posible que tenga resultados sesgados”, dijo Zhavoronkov, quien dijo que estaba sorprendido por los ganadores. “Cuando estás entrenando un algoritmo para reconocer ciertos patrones… es posible que no tengas suficientes datos o que los datos estén sesgados”.
La explicación más simple para los algoritmos sesgados es que los humanos que los crean tienen sus propios sesgos profundamente arraigados. Eso significa que, a pesar de las percepciones de que los algoritmos son de alguna manera neutrales y únicamente objetivos, a menudo pueden reproducir y amplificar los prejuicios existentes.
Los resultados de Beauty.AI ofrecen “la ilustración perfecta del problema”, dijo Bernard Harcourt, profesor de derecho y ciencias políticas de la Universidad de Columbia que ha estudiado la “vigilancia predictiva”, que depende cada vez más de las máquinas. “La idea de que se te pueda ocurrir una concepción de la belleza culturalmente neutra y racialmente neutra es simplemente alucinante”.
El caso es un recordatorio de que “los humanos realmente están pensando, incluso cuando se presenta como algoritmos y creemos que es neutral y científico”, dijo.
Los grupos de libertad civil han expresado recientemente su preocupación de que las herramientas informáticas de pronóstico de las fuerzas del orden público, que utilizan datos para predecir dónde ocurrirán futuros delitos, se basen en estadísticas defectuosas y puedan exacerbar las prácticas policiales perjudiciales y con prejuicios raciales.
“Son datos contaminados que producen resultados contaminados”, dijo Malkia Cyril, directora ejecutiva del Center for Media Justice.
Una investigación de ProPublica a principios de este año descubrió que el software utilizado para predecir futuros delincuentes está sesgado contra las personas negras, lo que puede conducir a sentencias más severas.
“Eso es realmente una cuestión de la vida de alguien que está en juego”, dijo Sorelle Friedler, profesora de informática en Haverford College.
Un problema importante, dijo Friedler, es que los grupos minoritarios por naturaleza a menudo están subrepresentados en los conjuntos de datos, lo que significa que los algoritmos pueden llegar a conclusiones inexactas para esas poblaciones y los creadores no lo detectarán. Por ejemplo, dijo, un algoritmo que estaba sesgado contra los nativos americanos podría considerarse un éxito dado que son solo el 2% de la población.
“Podrías tener una tasa de precisión del 98%. Uno pensaría que ha hecho un gran trabajo con el algoritmo”.
Friedler dijo que hay formas proactivas en que se pueden ajustar los algoritmos