Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2661

Loading...
Los defensores de los derechos civiles de EE. UU. advierten a los empleadores contra la IA sesgada
apnews.com · 2022

El gobierno federal dijo el jueves que la tecnología de inteligencia artificial para evaluar nuevos candidatos laborales o monitorear la productividad de los trabajadores puede discriminar injustamente a las personas con discapacidades, enviando una advertencia a los empleadores de que las herramientas de contratación de uso común podrían violar las leyes de derechos civiles.

El Departamento de Justicia de EE. UU. y la Comisión de Igualdad de Oportunidades en el Empleo emitieron conjuntamente una guía para que los empleadores tengan cuidado antes de usar herramientas algorítmicas populares destinadas a simplificar el trabajo de evaluar a los empleados y las perspectivas laborales, pero que también podrían entrar en conflicto con la [Ley de Estadounidenses con Discapacidades]. (/article/virus-outbreak-ap-top-news-george-h-w-bush-unemployment-discrimination-9c1c304518e02b99f60e85fda37969be).

“Estamos haciendo sonar una alarma con respecto a los peligros relacionados con la confianza ciega en la IA y otras tecnologías que los empleadores utilizan cada vez más”, dijo a los periodistas el jueves la fiscal general adjunta Kristen Clarke, de la División de Derechos Civiles del departamento. “El uso de la IA está agravando la discriminación de larga data que enfrentan los buscadores de empleo con discapacidades”.

Entre los ejemplos dados de herramientas populares de inteligencia artificial relacionadas con el trabajo se encuentran los escáneres de currículums, el software de monitoreo de empleados que clasifica a los trabajadores en función de las pulsaciones de teclas, las pruebas en línea similares a juegos para evaluar las habilidades laborales [y el software de entrevistas en video] (/article/job-seekers-artificial- intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9) que mide los patrones de habla o las expresiones faciales de una persona.

Dicha tecnología podría descartar potencialmente a las personas con impedimentos del habla, artritis severa que ralentiza el tipeo o una variedad de otros impedimentos físicos o mentales, dijeron los funcionarios.

Las herramientas creadas para analizar automáticamente el comportamiento en el lugar de trabajo también pueden pasar por alto las adaptaciones en el trabajo, como una estación de trabajo tranquila para alguien con trastorno de estrés postraumático o descansos más frecuentes para una discapacidad relacionada con el embarazo, que permiten a los empleados modificar sus condiciones de trabajo para realizar su trabajo con éxito.

Los expertos han advertido durante mucho tiempo que las herramientas de reclutamiento basadas en IA, aunque a menudo se presentan como una forma de eliminar el sesgo humano, en realidad pueden afianzar el sesgo si están tomando señales de industrias donde las disparidades raciales y de género ya son frecuentes.

El movimiento para tomar medidas enérgicas contra los daños que pueden ocasionar a las personas con discapacidades refleja un impulso más amplio por parte de la administración del presidente Joe Biden para fomentar avances positivos en IA mientras se controlan herramientas de IA opacas y en gran parte no reguladas que se utilizan para tomar decisiones importantes sobre la vida de las personas.

“Reconocemos totalmente que existe un enorme potencial para simplificar las cosas”, dijo Charlotte Burrows, presidenta de la EEOC, que es responsable de hacer cumplir las leyes contra la discriminación en el lugar de trabajo. “Pero no podemos permitir que estas herramientas se conviertan en un camino de alta tecnología hacia la discriminación”.

Un académico que ha investigado el sesgo en las herramientas de contratación de IA dijo que responsabilizar a los empleadores por las herramientas que usan es un "gran primer paso", pero agregó que se necesita más trabajo para controlar a los proveedores que fabrican estas herramientas. Hacerlo probablemente sería un trabajo para otra agencia, como la Comisión Federal de Comercio, dijo Ifeoma Ajunwa, profesor de derecho de la Universidad de Carolina del Norte y director fundador de su Programa de Investigación de Toma de Decisiones de IA.

“Ahora se reconoce cómo estas herramientas, que generalmente se implementan como una intervención antisesgo, en realidad podrían generar más sesgo, al mismo tiempo que lo ofuscan”, dijo Ajunwa.

Una empresa de Utah que ejecuta una de las herramientas de contratación basadas en IA más conocidas, el servicio de entrevistas en video HireVue, dijo el jueves que da la bienvenida al nuevo esfuerzo. para educar a los trabajadores, empleadores y proveedores y destacó su propio trabajo al estudiar cómo se desempeñan los solicitantes autistas en sus evaluaciones de habilidades.

“Estamos de acuerdo con la EEOC y el DOJ en que los empleadores deben tener adaptaciones para los candidatos con discapacidades, incluida la capacidad de solicitar un camino alternativo para ser evaluados”, dijo el comunicado del director ejecutivo de HireVue, Anthony Reynolds.

Esta historia se ha actualizado para corregir la ortografía del apellido de Anthony Reynolds, que HireVue proporcionó incorrectamente.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd