Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 619

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon abandonó la sexista herramienta de reclutamiento de IA
channels.theinnovationenterprise.com · 2018

Amazon decidió descartar un algoritmo de aprendizaje automático (ML) que estaba creando para ayudar a automatizar el proceso de reclutamiento porque el modelo seguía favoreciendo a los candidatos masculinos, reveló Reuters. La discriminación contra las candidatas se ha atribuido a los conjuntos de datos mayoritariamente dominados por hombres con los que se entrenó.

El proyecto, que se desechó en 2017, estaba destinado a poder revisar las solicitudes de empleo y asignar una puntuación a cada candidato entre una y cinco estrellas. "Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco mejores y los contrataremos", afirmó uno de los cinco miembros del equipo que había trabajado en la herramienta que Reuters habló con.

Visite la Cumbre de innovación de aprendizaje automático de Innovation Enterprise en Nueva York del 12 al 13 de diciembre de 2018

El equipo había trabajado en el algoritmo de reclutamiento desde 2014, entrenándolo en currículums que cubrían un período de 10 años. Sin embargo, debido a que la industria de la tecnología está notoriamente dominada por hombres, la mayoría de los currículums en los que se capacitó procedían de hombres. Esto llevó a AI a comenzar a favorecer a los candidatos masculinos en su evaluación simplemente por ser hombres, penalizando los CV simplemente por incluir la palabra "mujeres".

Las preocupaciones sobre el impacto que tienen los conjuntos de datos sesgados en el entrenamiento de IA se están convirtiendo cada vez más en un problema a medida que la investigación de IA continúa acelerándose. A principios de este año, los investigadores del MIT intentaron ilustrar el impacto que pueden tener los conjuntos de datos al crear la primera IA psicópata del mundo. Este incidente con Amazon muestra lo fácil que es transmitir inadvertidamente sesgos a la tecnología que están entrenando con el propósito explícito de ser imparcial.

Amazon hasta ahora se ha negado a comentar sobre el informe de Reuters.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd