Incidentes Asociados

Amazon abandona la IA sexista
No es ninguna novedad saber que la IA puede ser algo así como un fanático.
Amazon descartó un algoritmo diseñado para convertirse en una herramienta de reclutamiento porque era demasiado sexista.
¿Escuchaste el de mi esposa? Bueno, ella... es una persona muy agradable, en realidad.
Sabemos que las personas sufren de prejuicios. Por desgracia, una creciente cantidad de evidencia sugiere que la IA también puede serlo.
Ahora parece que Amazon descubrió esto de la manera más difícil, después de invertir en una herramienta de reclutamiento de IA.
IA ética: la respuesta es clara Ser transparente con la IA ética es vital para interactuar con el público de manera responsable.
La idea era que el motor de inteligencia artificial escaneara las solicitudes de empleo y les diera a los aspirantes a reclutas una puntuación entre uno y cinco. Reuters citó a un ingeniero diciendo: "Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco primeros y los contrataremos".
Por desgracia, comenzó a eliminar los CV que incluían una determinada palabra de cinco letras. La palabra 'W' - mujeres, allí lo dijo.
Esto fue en 2015, seamos realistas, en lo que respecta a la IA, 2015 es historia antigua.
Ver también: Regulación de robots: vigilando la IA
No es ninguna novedad saber que la IA puede ser algo así como un fanático.
En 2016, se supo que los algoritmos de evaluación de riesgos de EE. UU., utilizados por los tribunales de todo el país para decidir el destino y las libertades de las personas enjuiciadas, tienen prejuicios raciales y, con frecuencia, condenan a los caucásicos con más indulgencia que a los afroamericanos a pesar de que no hay diferencia en el tipo de delito cometido. ¿Cómo podría suceder esto dentro de un sistema que se supone que es neutral?
La investigadora de IA, la profesora Joanna Bryson, dijo en ese momento: "Si los datos subyacentes reflejan estereotipos, o si entrenas a la IA a partir de la cultura humana, encontrarás sesgos".
Ver también: Inteligencia aumentada: por qué el elemento humano no se puede olvidar
Esto nos lleva al tema de la diversidad. Scot E Page es un experto en diversidad y sistemas complejos. Las áreas en las que es más conocido incluyen la "sabiduría colectiva".
Es famoso por decir que "el progreso depende tanto de nuestras diferencias colectivas como de nuestros puntajes de coeficiente intelectual individuales".
Y: “Si podemos entender cómo aprovechar la diversidad para lograr un mejor rendimiento y una mayor solidez, podríamos anticiparnos y evitar colapsos”.
Sin embargo, la IA, debido a la forma en que aprende de los datos, puede reflejar los sesgos de la sociedad.
“El hecho de que el sistema de Amazon aprendiera por sí mismo que los candidatos masculinos eran preferibles, penalizando los currículos que incluían la palabra 'femenino', no sorprende si se considera que el 89 % de la fuerza laboral de ingeniería es masculina”, observó Charlotte Morrison, gerente general de marca global y agencia de diseño, Landor.
Agregó: “Las marcas deben tener cuidado de que al crear y usar tecnología no resulte contraproducente al resaltar las propias imperfecciones y prejuicios de la sociedad. La solución a largo plazo es, por supuesto, obtener candidatos más diversos en la educación y las carreras STEM; hasta entonces, las marcas deben estar alertas a los peligros del daño a la marca y la reputación de la tecnología sesgada, sexista e incluso racista”.
Ver también: Inteligencia aumentada: prediciendo los mejores momentos del cliente