Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 617

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon cierra su problemático sistema sexista de reclutamiento de IA
mansworldindia.com · 2018

El gigante tecnológico enlató su sistema de reclutamiento experimental plagado de problemas, según Reuters.

Amazon, en 2014, puso en marcha el sistema de contratación con la esperanza de mecanizar todo el proceso de contratación. Usó inteligencia artificial para dar a los candidatos puntajes que iban de una a cinco estrellas. El sistema luego escupirá a los 5 mejores candidatos, con la calificación y las calificaciones más altas.

Pero los especialistas en aprendizaje automático descubrieron un gran problema con este sistema casi perfecto: era sexista. Los modelos fueron capacitados para examinar a los solicitantes mediante la observación de patrones en los currículos enviados a la empresa durante un período de 10 años. La mayoría de ellos siendo hombres.

Por lo tanto, la IA de Amazon aprendió que solo los candidatos masculinos serían adecuados y comenzó a penalizar los currículums que incluían la palabra "mujeres". Por ejemplo, un currículum que podría haber contenido, "la capitana del equipo de baloncesto femenino", se retrasó más en la lista de candidatos más adecuados.

Hicieron cambios en el programa y afirmaron que solucionaron el problema, pero las personas no estaban convencidas porque creían que la IA podría encontrar otras formas discriminatorias para atacar a las mujeres.

Amazon defendió a la empresa alegando que los reclutadores vieron los currículos presentados por el sistema, pero nunca confiaron completamente en él. Además, destacó su compromiso con la diversidad e igualdad en el trabajo.

Los informes del sistema defectuoso solo respaldaron las afirmaciones de las mujeres sobre la creciente disparidad de género en la industria tecnológica.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd