Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 616

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
La herramienta de reclutamiento de IA de Amazon descartada por ser sexista
alphr.com · 2018

Amazon se ha visto obligado a desechar su sistema de contratación de IA después de que se descubriera que estaba sesgado contra las candidatas.

La IA fue desarrollada en 2014 por Amazon como una forma de filtrar a la mayoría de los candidatos para proporcionar a la empresa las cinco mejores personas para un puesto. En 2015 se descubrió que no estaba calificando a los solicitantes de una manera neutral en cuanto al género, lo cual es un gran problema y va en contra de los intentos de Amazon de nivelar el campo de juego al hacer que una IA objetiva tome las primeras decisiones.

Resulta que el problema radica en cómo se entrenó el sistema. Como ocurre con todo en IA, la falta de diversidad en la industria llevó a que se capacitara casi en su totalidad en CV masculinos. Esto significó que, al igual que estaba aprendiendo a detectar los patrones en el reclutamiento durante un período de 10 años, también estaba aprendiendo a devaluar los CV de las mujeres.

LEER A CONTINUACIÓN: ¿Qué podemos hacer con el problema de la diversidad de la tecnología?

Según Reuters, el sistema aprendió por sí mismo que los candidatos masculinos eran preferibles a las mujeres. Rebajó los CV si encontraba palabras como "mujeres" y penalizaba a los graduados de universidades exclusivamente femeninas.

Si bien Amazon recodificó el software para que la IA fuera neutral a estos términos, se dio cuenta de que esto no garantizaba que la tecnología encontraría otros métodos para discriminar a las mujeres, según el informe.

El equipo, establecido en el centro de ingeniería de Amazon en Edimburgo, creó 500 modelos concentrados en funciones y ubicaciones de trabajo detalladas. También se le enseñó al sistema a reconocer alrededor de 50,000 términos que aparecían en los CV de candidatos anteriores.

La tecnología aprendió a asignar poca importancia a las habilidades comunes entre los solicitantes de TI, favoreciendo los términos que se encuentran más comúnmente en los currículums de los ingenieros masculinos, como "ejecutado" y "capturado", según el informe.

LEER A CONTINUACIÓN: ¿Las cuotas de diversidad ayudan o dificultan a las mujeres en la tecnología?

El modelo utilizado en el sistema de IA tenía otros problemas que condujeron a que se recomendaran candidatos no calificados para una variedad de trabajos inadecuados.

Esto finalmente llevó a Amazon a desconectar al equipo ya que los ejecutivos "perdieron la esperanza" sobre el proyecto, dijeron fuentes anónimas a Amazon. No se podía confiar únicamente en la herramienta para clasificar a los candidatos.

La firma ahora usa una "versión muy diluida" del motor de reclutamiento para llevar a cabo "tareas rudimentarias".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd