Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 608

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon creó accidentalmente una herramienta de reclutamiento 'sexista' y luego la cerró
aplus.com · 2018

La tecnología de aprendizaje automático se está volviendo cada vez más común en varias industrias, desde la vigilancia hasta el reclutamiento. Pero los informes han demostrado que muchos de estos sistemas tienen problemas de larga data con respecto a la discriminación. Para evitar amplificar el sesgo, las empresas deben enseñar activamente su tecnología para que sea inclusiva.

Hay varias formas en que las corporaciones pueden mejorar sus herramientas de aprendizaje automático. Quartz sugiere evaluar los impactos más amplios de los nuevos sistemas de IA antes de su implementación, así como establecer códigos internos de conducta y modelos de incentivos para mejorar la adherencia a prácticas no discriminatorias. La publicación también establece que la inclusión y la diversidad deben convertirse en prioridades desde el principio, desde el desarrollo de los equipos de diseño hasta el producto final.

También es importante que las empresas sean transparentes sobre el impacto de su tecnología y evalúen constantemente su eficacia, desde refinar algoritmos hasta evaluar e informar su comportamiento. Al tomar estos pasos proactivos, existe la posibilidad de que las empresas con visión de futuro creen sistemas revolucionarios de inteligencia artificial sin representar un riesgo para los derechos humanos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd