Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 604

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon entrenó una IA que lucha contra el sexismo y evalúa currículums con datos de contratación sexistas, por lo que el bot se volvió sexista
boingboing.net · 2018

Amazon entrenó una IA que lucha contra el sexismo y evalúa currículums con datos de contratación sexistas, por lo que el bot se volvió sexista

Algunas partes del aprendizaje automático son increíblemente esotéricas y difíciles de comprender, lo que sorprende incluso a los profesionales de la informática experimentados; otras partes son los mismos problemas que los programadores han enfrentado desde los primeros días de la computación. El problema que tuvo Amazon con su sistema basado en el aprendizaje automático para evaluar a los solicitantes de empleo fue el último.

Amazon entendió que tenía un proceso de contratación discriminatorio: los sesgos inconscientes de sus líderes técnicos dieron como resultado que la empresa dejara pasar a candidatas calificadas. Esto no solo es injusto, también es un gran riesgo comercial, porque los desarrolladores calificados son el elemento más escaso de las empresas modernas.

Así que entrenaron un sistema de aprendizaje automático para evaluar los currículos entrantes, con la esperanza de que superara los sesgos del sistema de contratación existente.

Por supuesto, lo entrenaron con los currículums de los solicitantes de empleo exitosos existentes en Amazon, es decir, la fuerza laboral predominantemente masculina que había sido contratada bajo el sistema discriminatorio que esperaban corregir.

El aforismo informático para explicar esto es "basura que entra, basura que sale" o GIGO. Se explica por sí mismo, pero por si acaso, GIGO es el fenómeno en el que los datos incorrectos que pasan por un buen sistema producen malas conclusiones.

Amazon construyó el sistema en 2014 y lo desechó en 2017, luego de concluir que era irrecuperable: las fuentes dijeron a Reuters que rechazó a los solicitantes de universidades exclusivamente para mujeres y rebajó los currículums que incluían la palabra "mujeres" como "capitana del club de ajedrez femenino". ." Amazon dice que nunca confió en el sistema.

Hay un ángulo de "el aprendizaje automático es difícil" en esto: mientras que los resultados defectuosos de los datos de entrenamiento defectuosos eran totalmente predecibles, los criterios discriminatorios autogenerados del sistema eran sorprendentes e impredecibles. Nadie le dijo que rebajara los currículos que contenían "mujeres": llegó a esa conclusión por sí solo, al notar que esta era una palabra que rara vez aparecía en los currículos de las contrataciones anteriores de Amazon.

El grupo creó 500 modelos de computadora enfocados en funciones y ubicaciones de trabajo específicas. Les enseñaron a cada uno a reconocer unos 50.000 términos que aparecían en los currículos de candidatos anteriores. Los algoritmos aprendieron a asignar poca importancia a las habilidades que eran comunes entre los solicitantes de TI, como la capacidad de escribir varios códigos de computadora, dijeron las personas. En cambio, la tecnología favoreció a los candidatos que se describían a sí mismos usando verbos que se encuentran más comúnmente en los currículums de los ingenieros masculinos, como "ejecutado" y "capturado", dijo una persona. El sesgo de género no fue el único problema. Los problemas con los datos que respaldaron los juicios de los modelos significaron que a menudo se recomendaban candidatos no calificados para todo tipo de trabajos, dijeron las personas. Con la tecnología arrojando resultados casi al azar, Amazon cerró el proyecto, dijeron.

Amazon elimina la herramienta secreta de reclutamiento de IA que mostraba prejuicios contra las mujeres [Jeffrey Dastin/Reuters]

(Imagen: criterios, CC-BY)

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd