Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2461

Incidentes Asociados

Incidente 3734 Reportes
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Las herramientas de inteligencia artificial no logran reducir el sesgo de reclutamiento: estudio
bbc.com · 2022

Las herramientas de contratación artificialmente inteligentes no reducen el sesgo ni mejoran la diversidad, dicen los investigadores en un estudio.

"Hay un interés creciente en nuevas formas de resolver problemas como el sesgo en las entrevistas", dicen los investigadores de la Universidad de Cambridge, en el revista Filosofía y Tecnología

El uso de IA se está generalizando, pero su análisis de videos o aplicaciones candidatas es "pseudociencia".

Un organismo profesional de recursos humanos le dijo a BBC News que AI podría contrarrestar el sesgo.

En 2020, señala el estudio, una encuesta internacional de 500 profesionales de recursos humanos sugirió que casi una cuarta parte estaba usando IA para "adquisición de talento, en forma de automatización".

Pero usarlo para reducir el sesgo es contraproducente y, según le dijo a BBC News el investigador postdoctoral del Centro de Estudios de Género de la Universidad de Cambridge, el Dr. Kerry Mackereth, se basa en "un mito".

"Estas herramientas no se pueden entrenar para identificar solo las características relacionadas con el trabajo y eliminar el género y la raza del proceso de contratación, porque los tipos de atributos que creemos que son esenciales para ser un buen empleado están inherentemente relacionados con el género y la raza". ella dijo.

Algunas empresas también han encontrado que estas herramientas son problemáticas, señala el estudio.

En 2018, por ejemplo, Amazon anunció que había descartado el desarrollo de un motor de reclutamiento impulsado por IA porque podía detectar el género de los CV y [discriminaba a las mujeres solicitantes] (https://www.bbc.co.uk/news/technology -45809919).

Frenología moderna

De particular interés para los investigadores fueron las herramientas para "analizar las minucias del discurso y los movimientos corporales de un candidato" para ver qué tanto se parecían al supuesto empleado ideal de una empresa.

La tecnología de análisis de imágenes y videos "no tenía base científica", dijo a la BBC la coautora, la Dra. Eleanor Drage, descartándola como "frenología moderna". La teoría falsa de la forma del cráneo podría revelar el carácter y las facultades mentales.

"Dicen que pueden conocer tu personalidad al mirar tu rostro. La idea es que, como una prueba de detección de mentiras, la IA pueda ver 'a través' de tu rostro tu verdadero yo", le dijo a BBC News.

Con seis estudiantes de ciencias de la computación, los investigadores crearon su propia herramienta de reclutamiento de IA simplificada, para calificar las fotografías de los candidatos según los rasgos de personalidad de los "cinco grandes":

  • amabilidad
  • extroversión
  • apertura
  • escrupulosidad
  • neuroticismo

Pero las calificaciones estaban sesgadas por muchas variables irrelevantes.

"Cuando usa nuestra herramienta, puede ver que su puntuación de personalidad cambia cuando modifica el contraste/brillo/saturación", escribió el Dr. Drage.

El sitio de noticias tecnológicas The Register señaló otras investigaciones habían llegado a una conclusión similar.

Una cadena pública alemana encontró que llevar gafas o un pañuelo en la cabeza en un vídeo cambió la puntuación de un candidato.

Hayfa Mohdzaini, del Chartered Institute of Personnel and Development, le dijo a BBC News su investigación sugirió solo el 8% de los empleadores usaron IA para seleccionar candidatos.

"La IA puede ayudar de manera eficiente a aumentar la diversidad de una organización al filtrar de un grupo de candidatos más grande, pero también puede perder muchos buenos candidatos si las reglas y los datos de capacitación son incompletos o inexactos", dijo.

"El software de inteligencia artificial para analizar la voz y el lenguaje corporal de los candidatos en el reclutamiento está en pañales y, por lo tanto, conlleva tanto oportunidades como riesgos".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd