Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 600

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon descarta la herramienta de reclutamiento de 'IA sexista'
independent.co.uk · 2018

Amazon ha desechado una herramienta "sexista" que usaba inteligencia artificial para decidir a los mejores candidatos para contratar para puestos de trabajo.

Los miembros del equipo que trabajaba en el sistema dijeron que efectivamente se enseñó a sí mismo que los candidatos masculinos eran preferibles.

El software de inteligencia artificial fue creado por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clasificar automáticamente los CV y seleccionar a los candidatos más talentosos.

Pero el algoritmo aprendió rápidamente a favorecer a los candidatos masculinos sobre los femeninos, según miembros del equipo que hablaron con Reuters.

Se dieron cuenta de que estaba penalizando los CV que incluían la palabra "femenino", como "capitana del club de ajedrez femenino". Según los informes, también rebajó la calificación de los graduados de dos universidades exclusivamente para mujeres.

El problema surgió del hecho de que el sistema fue entrenado con datos enviados por los solicitantes durante un período de 10 años, muchos de los cuales se decía que provenían de hombres.

Cinco miembros del equipo que desarrolló la herramienta de aprendizaje automático, ninguno de los cuales quiso ser nombrado públicamente, dijeron que el sistema estaba destinado a revisar las solicitudes de empleo y dar a los solicitantes una puntuación que oscilaba entre una y cinco estrellas.

Algunos de los miembros del equipo señalaron el hecho de que esto reflejaba la forma en que los compradores califican los productos en Amazon.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd