Incidentes Asociados

Durante mucho tiempo se pensó que los robots equipados con inteligencia artificial serían la contraparte fría y puramente objetiva de la subjetividad emocional de los humanos. Desafortunadamente, parecería que muchas de nuestras imperfecciones se han colado en las máquinas. Resulta que estos I.A. y las herramientas de aprendizaje automático pueden tener puntos ciegos cuando se trata de mujeres y minorías. Esto es especialmente preocupante si se tiene en cuenta que muchas empresas, organizaciones gubernamentales e incluso hospitales utilizan el aprendizaje automático y otros métodos de inteligencia artificial. herramientas para ayudar con todo, desde la prevención y el tratamiento de lesiones y enfermedades hasta la predicción de la solvencia de los solicitantes de préstamos.
Estos prejuicios raciales y de género se han manifestado en una variedad de formas. El año pasado, Beauty.AI se propuso ser el juez completamente objetivo de un concurso internacional de belleza. Utilizando factores como la simetría facial, Beauty.AI evaluó aproximadamente 6000 fotos de más de 100 países para establecer a las personas más hermosas. De los 44 ganadores, casi todos eran blancos, unos pocos eran asiáticos y solo uno tenía piel oscura. Esto es a pesar del hecho de que muchas personas de color enviaron fotos, incluidos grandes grupos de India y África. Aún peor fue en 2015, cuando el software de fotografía de Google etiquetó a dos usuarios negros como "gorilas", debido a la falta de ejemplos de personas de color en su base de datos.
El quid de la cuestión se deriva de la confianza de la IA en los datos. Aunque los datos pueden ser precisos, podrían generar estereotipos. Por ejemplo, una máquina puede clasificar incorrectamente a una enfermera como mujer, ya que los datos muestran que menos hombres son enfermeros. En otro ejemplo, los investigadores aplicaron un conjunto de datos con perros negros y gatos blancos y marrones. Dados los datos, el algoritmo etiquetó incorrectamente a un perro blanco como un gato. En otros casos, el algoritmo puede ser entrenado por las personas que lo usan, lo que hace que la máquina detecte los sesgos de los usuarios humanos.
En 2016, los investigadores intentaron eliminar los sesgos de género de un algoritmo de aprendizaje automático. En el artículo “¿El hombre es al programador informático lo que la mujer es al ama de casa?” los investigadores intentaron diferenciar las correlaciones legítimas de las sesgadas. Una correlación legítima puede parecer que "el hombre es al rey como la mujer es a la reina", mientras que una sesgada sería "el hombre es al médico como la mujer es a la enfermera". Al “utilizar la evaluación de trabajadores colectivos, así como los puntos de referencia estándar, [los investigadores] demuestran empíricamente que [sus] algoritmos reducen significativamente el sesgo de género en las incrustaciones al tiempo que preservan sus [sic] propiedades útiles, como la capacidad de agrupar conceptos relacionados y resolver tareas de analogía”, concluyó el estudio. Ahora, los mismos investigadores están aplicando esta estrategia para eliminar los prejuicios raciales.
Adam Kalai, investigador de Microsoft y coautor del artículo, dijo que "tenemos que enseñar a nuestros algoritmos cuáles son buenas asociaciones y cuáles son malas de la misma manera que enseñamos a nuestros hijos".
Los investigadores también han sugerido que usar diferentes algoritmos para clasificar dos grupos representados en un conjunto de datos, en lugar de usar la misma medida en todos, podría ayudar a frenar los sesgos en la inteligencia artificial.
Independientemente, muchos afirman que pasarán años hasta que se resuelva este problema de sesgo, lo que limita severamente la inteligencia artificial hasta entonces. Sin embargo, el problema ha llamado la atención de muchos de los principales actores de la IA. y el aprendizaje automático que ahora están trabajando para mejorar la tecnología para frenar los sesgos y ayudar a comprender el proceso de toma de decisiones de la IA. Google utiliza su iniciativa GlassBox, donde los investigadores están estudiando la aplicación de restricciones manuales a los sistemas de aprendizaje automático, para que sus resultados sean más comprensibles. Sin embargo, es posible que hasta que se reduzcan los sesgos conscientes e inconscientes del propio creador, lo creado seguirá teniendo estos problemas.