Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 628

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
El algoritmo de reclutamiento sexista de Amazon refleja un mayor sesgo de género
mashable.com · 2018

La IA puede tener tendencias sexistas. Pero, lo siento, el problema seguimos siendo los humanos.

Amazon eliminó recientemente un algoritmo de reclutamiento de empleados plagado de problemas, según un informe de Reuters. En última instancia, el algoritmo de selección de candidatos no arrojó candidatos relevantes, por lo que Amazon canceló el programa. Pero en 2015, Amazon tuvo un problema más preocupante con esta IA: estaba degradando a las mujeres.

El algoritmo solo se usó en pruebas, y los ingenieros corrigieron manualmente los problemas de sesgo. Sin embargo, la forma en que funcionó el algoritmo y la existencia del producto en sí habla de problemas reales sobre la disparidad de género en los roles tecnológicos y no tecnológicos, y la devaluación del trabajo femenino percibido.

Amazon creó su IA de reclutamiento para devolver automáticamente a los mejores candidatos de un grupo de currículums de solicitantes. Descubrió que el algoritmo bajaría la clasificación de los currículums cuando incluyera la palabra "mujeres" e incluso dos universidades para mujeres. También daría preferencia a los currículos que contuvieran lo que Reuters llamó "lenguaje masculino" o verbos fuertes como "ejecutado" o "capturado".

Estos patrones comenzaron a aparecer porque los ingenieros entrenaron su algoritmo con los currículums de los candidatos anteriores presentados durante los diez años anteriores. Y he aquí que la mayoría de los candidatos más atractivos eran hombres. Esencialmente, el algoritmo encontró evidencia de disparidad de género en los roles técnicos y se optimizó para ello; reprodujo de manera neutral una preferencia social y endémica por los hombres forjada a partir de un sistema educativo y un sesgo cultural que alienta a los hombres y desalienta a las mujeres en la búsqueda de roles STEM.

Para obtener pistas sobre por qué hay tan pocas mujeres en tecnología, mire una sesión de reclutamiento para estudiantes universitarios. Pocas mujeres ingenieras, incluso menos hablan, los hombres hablan por encima de ellas https://t.co/8CmfAB9J3Q a través de @jessiwrites — Scott Thurm (@ScottThurm) 1 de marzo de 2018

Como #mujeresenSTEM y #mujeresenFísica, somos una minoría y, según mi experiencia, esto ha tenido un impacto enorme en mi salud mental a lo largo del tiempo.https://t.co/KPMcCMbt7X

Me siento como un impostor. A menudo me siento aislado. Regularmente temo la discriminación e incluso el acoso. #WorldMentalHealthDay — Niamh Kavanagh (@NiamhTalking90) 10 de octubre de 2018

Amazon enfatizó en un correo electrónico a Mashable que desechó el programa porque finalmente no estaba devolviendo candidatos relevantes; abordó el problema del sexismo desde el principio, pero la IA en su conjunto simplemente no funcionó tan bien.

Sin embargo, la creación de algoritmos de contratación en sí mismos, no solo en Amazon, sino en muchas empresas, todavía habla de otro tipo de sesgo de género: la devaluación de los roles y habilidades de Recursos Humanos dominados por mujeres.

Según el Departamento de Trabajo de EE. UU. (a través de la empresa proveedora de análisis de la fuerza laboral Visier), las mujeres ocupan casi las tres cuartas partes de los puestos gerenciales de recursos humanos. Esta es una gran noticia para la representación femenina en general en el lugar de trabajo. Pero la disparidad existe gracias a otro tipo de sesgo de género.

Existe la percepción de que los puestos de recursos humanos son roles femeninos. The Globe and Mail escribe en su investigación sobre el sexismo y la disparidad de género en los recursos humanos:

Persiste la percepción de los RRHH como una profesión de mujeres. Esta imagen de que se basa en las personas, es suave y empática, y se trata de ayudar a los empleados a resolver los problemas, la deja en gran parte poblada por mujeres como el estereotipo de cuidador. Incluso hoy en día, estas habilidades "más blandas" se consideran menos atractivas, o intuitivas, para los hombres que pueden gravitar hacia roles analíticos y estratégicos percibidos, y lejos de las relaciones con los empleados.

Amazon y otras empresas que buscaban integraciones de IA en la contratación querían optimizar el proceso, sí. Pero la automatización de un proceso basado en personas muestra un desprecio por las habilidades basadas en personas que son menos fáciles de reproducir mecánicamente, como la intuición o la relación. Reuters informó que la IA de Amazon identificó a los solicitantes atractivos a través de un sistema de calificación de cinco estrellas, "al igual que los compradores califican los productos en Amazon"; ¿Quién necesita empatía cuando tienes cinco estrellas?

En el informe de Reuters, estas empresas sugieren contratar IA como complemento o complemento de los métodos más tradicionales, no como un reemplazo absoluto. Pero el impulso en primer lugar de automatizar un proceso por parte de una división dominada por mujeres muestra la otra cara de la moneda de la preferencia del algoritmo por el "lenguaje masculino"; donde los verbos "ejecutado" y "capturado" se favorecen inconscientemente, "escuchado" o "proporcionado" se descartan como ineficientes.

La explosión de la IA está en marcha. Eso es fácil de ver en cada teléfono inteligente evangélico o presentación de hogar inteligente de cuánto puede hacer su robot por usted, incluido el de Amazon. Pero eso significa que la sociedad se está abriendo para crear un mundo aún menos inclusivo. AI. puede duplicar las tendencias discriminatorias en nombre de la optimización, como vemos con la IA de reclutamiento de Amazon. (y otros). Y porque la I.A. está construido y dirigido por humanos (y, a menudo, en su mayoría por humanos masculinos) que pueden transferir involuntariamente sus sesgos sexistas inconscientes a las decisiones comerciales y a los propios robots.

Entonces, a medida que nuestras computadoras se vuelvan más inteligentes e impregnen más áreas de la vida y

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd