Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 601

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon desecha la herramienta de contratación de IA 'sexista'
news.com.au · 2018

¿Qué es la inteligencia artificial (IA)? Observamos el progreso de la IA y la automatización en Australia en comparación con el resto del mundo y cómo la fuerza laboral australiana puede verse afectada por este movimiento.

¿El auge de la IA nos quitará nuestros trabajos? 0:57

AMAZON se vio obligada a abandonar una herramienta secreta de reclutamiento de inteligencia artificial después de descubrir que discriminaba a las mujeres.

Según un informe de Reuters, desde 2014 los ingenieros de Amazon han estado construyendo un programa informático para revisar currículums con el objetivo de automatizar el proceso de búsqueda de talento.

La herramienta daría a los candidatos de trabajo una puntuación de una a cinco estrellas.

“Todos querían este santo grial”, dijo una fuente a la agencia de noticias. "Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco primeros y los contrataremos".

Sin embargo, después de un año, Amazon se dio cuenta de que su sistema favorecía a los candidatos masculinos para desarrollar software y otros roles técnicos, porque estaba observando patrones en los currículos presentados durante un período de 10 años, la mayoría de los cuales provenían de hombres.

También sancionó los currículums que incluían la palabra "mujeres", según Reuters, como en la frase "capitana de club de ajedrez femenino" y universidades solo para mujeres.

A pesar de que el programa fue editado para que fuera neutral en esos términos, los programadores no podían garantizar que la IA no se enseñaría a sí misma a clasificar a los candidatos de otras formas discriminatorias, según el informe.

El proyecto finalmente se descartó por completo a principios de 2017.

Se entiende que el proyecto solo se usó en una fase de desarrollo, nunca de forma independiente, y nunca se implementó en un grupo más grande.

Fue abandonado por muchas razones, nunca arrojó candidatos fuertes para los roles, y no por el problema del sesgo.

Una portavoz de Amazon dijo: “Los reclutadores de Amazon nunca usaron esto para evaluar candidatos”.

frank.chung@news.com.au

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd