Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 609

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
IA sexista: Amazon abandona la herramienta de reclutamiento que resultó ser anti-mujeres
rt.com · 2019

Se suponía que facilitaría la búsqueda de la persona adecuada para el trabajo. Sin embargo, la empresa abandonó una herramienta de inteligencia artificial desarrollada por Amazon para filtrar posibles contrataciones después de que los desarrolladores descubrieran que estaba sesgada en contra de elegir mujeres.

Desde la fijación de precios de los artículos hasta la coordinación del almacén, la automatización ha sido una parte clave del ascenso de Amazon al dominio del comercio electrónico. Y desde 2014, sus desarrolladores han estado creando programas de contratación destinados a hacer que la selección de los mejores talentos sea lo más fácil y automatizada posible.

Lee mas

“Todos querían este santo grial”, dijo una de las fuentes anónimas a Reuters sobre las ambiciones del software.

"Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco primeros y los contrataremos".

Sin embargo, una filtración de varios de los que están familiarizados con el programa da una idea de algunos de los percances en el desarrollo del software de contratación basado en IA y cómo aprendió a penalizar a las mujeres... por ser mujeres.

Fue en 2015 que los reclutadores humanos notaron por primera vez las discrepancias con la herramienta, cuando aparentemente marcó a las candidatas para puestos en las esferas dominadas por hombres del desarrollo de software y otros puestos técnicos en la empresa.

Cuando el motor encontró palabras como "mujeres" en un currículum, o si una candidata se graduó de una universidad para mujeres, penalizó injustamente a las candidatas de la selección, dijeron las fuentes.

Las investigaciones sobre la causa del desequilibrio de género encontraron que los datos que alimentaban el algoritmo se basaban en diez años de currículos enviados a la empresa. La gran mayoría de las cuales fueron presentadas por hombres.

El algoritmo, a su vez, aprendió a descartar a las candidatas como algo negativo, lo que llevó a su sistema de puntuación sexista.

Los programadores realizaron ediciones para que el motor fuera neutral a estos términos particulares, sin embargo, no había certeza de que no desarrollaría otras formas de discriminar en el futuro.

LEER MÁS: Los bots de IA racistas y sexistas podrían negarle trabajo, seguro y préstamos: expertos en tecnología

Los ejecutivos abatidos finalmente desecharon el equipo en 2017 después de perder la esperanza en el proyecto. Un portavoz de Amazon le dijo a RT que el proyecto nunca salió de la fase de prueba. Además de su aparente sesgo, el software "nunca arrojó candidatos para los roles". Ahora, en cambio, se utiliza una "versión muy diluida" para tareas menores de recursos humanos, como clasificar a los solicitantes duplicados de sus bases de datos.

Los algoritmos sexistas de Amazon no son la primera vez que la IA ha puesto a las empresas tecnológicas en problemas. El mes pasado, Facebook se enfureció después de que se descubrió que a las usuarias se les impedía ver anuncios de trabajo en industrias tradicionalmente dominadas por hombres.

En mayo de 2016, un informe encontró que un tribunal de EE. UU. que usaba software automatizado para proporcionar evaluaciones de riesgo estaba sesgado en contra de los presos negros, registrándolos con el doble de probabilidades de reincidir que sus homólogos blancos.

¿Crees que tus amigos estarían interesados? ¡Comparte esta historia!

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd