Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 622

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon eliminó su sistema de reclutamiento de IA por sesgo contra las mujeres: informe
fortune.com · 2018

El aprendizaje automático, una de las técnicas centrales en el campo de la inteligencia artificial, implica enseñar a los sistemas automatizados a idear nuevas formas de hacer las cosas, alimentándolos con una gran cantidad de datos sobre el tema en cuestión. Uno de los grandes temores aquí es que los sesgos en esos datos simplemente se reforzarán en los sistemas de IA, y Amazon parece haber proporcionado un excelente ejemplo de ese fenómeno.

Según un nuevo informe de Reuters, Amazon pasó años trabajando en un sistema para automatizar el proceso de contratación. La idea era que este sistema impulsado por IA pudiera ver una colección de currículos y nombrar a los mejores candidatos. Para lograr esto, Amazon alimentó al sistema con los currículos de una década de personas que solicitaron empleo en Amazon.

La industria de la tecnología está dominada por hombres y, en consecuencia, la mayoría de esos currículums provienen de hombres. Entonces, entrenado en esa selección de información, el sistema de reclutamiento comenzó a favorecer a los hombres sobre las mujeres.

Según fuentes de Reuters, el sistema de Amazon aprendió por sí mismo a degradar los currículos con la palabra "femenino" y a asignar puntajes más bajos a los graduados de dos universidades solo para mujeres. Mientras tanto, decidió que palabras como "ejecutado" y "capturado", que aparentemente se usan con más frecuencia en los currículos de los ingenieros varones, sugerían que el candidato debería tener una clasificación más alta.

El equipo trató de evitar que el sistema tomara en cuenta tales factores, pero finalmente decidió que era imposible evitar que encontrara nuevas formas de discriminar a las candidatas. Aparentemente, también hubo problemas con los datos subyacentes que llevaron al sistema a emitir recomendaciones bastante aleatorias.

Y así, según los informes, Amazon eliminó el proyecto a principios de 2017.

“Esto nunca fue utilizado por los reclutadores de Amazon para evaluar candidatos”, dijo Amazon en un comunicado.

Amazon no es la única empresa que está alerta al problema del sesgo algorítmico. A principios de este año, Facebook dijo que estaba probando una herramienta llamada Fairness Flow, para detectar sesgos raciales, de género o de edad en algoritmos de aprendizaje automático. ¿Y cuál fue el primer objetivo de las pruebas de Facebook de la nueva herramienta? Su algoritmo para hacer coincidir a los solicitantes de empleo con las empresas que anuncian puestos.

Este artículo se actualizó para incluir la declaración de Amazon.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 26ad817