Problema 5582
Casi todos los gerentes de RR. HH. en EE. UU. utilizan IA en el trabajo, y la mayoría confía en ella para decidir quién asciende, recibe un aumento o es despedido, según una nueva encuesta.
Según una encuesta de ResumeBuilder, tu trayectoria profesional podría depender de un chatbot con IA. Esto se debe a que tu gerente podría no molestarse en investigar por su cuenta, sino que confiaría en algo como ChatGPT para decidir si te asciende o te despide.
La encuesta, que encuestó a 1342 gerentes, reveló que un sorprendente 66 % de ellos consultó un modelo de lenguaje extenso (LLM) como ChatGPT para obtener orientación sobre despidos. La mayoría también utiliza IA para determinar aumentos (78 %) y ascensos (77 %).
Si bien la IA se ha utilizado durante mucho tiempo para filtrar currículums y evaluar datos de rendimiento, parece que su integración es mucho más profunda e influye directamente en la vida de las personas.
Esto plantea importantes preocupaciones sobre la ética y la rendición de cuentas en el lugar de trabajo, ya que parece que los humanos se están convirtiendo en meros sellos de aprobación para las decisiones de las máquinas y ya no tienen el control.
Aún más preocupante, casi uno de cada cinco gerentes admitió haber permitido que la herramienta de IA tomara la decisión final, sin intervención humana alguna. Sin embargo, casi todos afirman estar dispuestos a intervenir si no están de acuerdo con una recomendación basada en IA.
Curiosamente, dos tercios de los gerentes (32%) que utilizan IA para gestionar a sus empleados no han recibido formación formal en IA.
Stacie Haller, asesora principal de carreras profesionales en Resume Builder, afirmó que los riesgos surgen cuando los gerentes confían en la IA para tomar decisiones sin la formación adecuada.
Casi uno de cada cinco gerentes admitió haber permitido que la herramienta de IA tomara la decisión final, sin intervención humana alguna.
"Es fundamental no perder de vista a las personas en la gestión de personal. Si bien la IA puede respaldar la información basada en datos, carece de contexto, empatía y criterio. Los resultados de la IA reflejan los datos que se le proporcionan, que pueden ser erróneos, sesgados o manipulados", afirmó Haller.
"Las organizaciones tienen la responsabilidad de implementar la IA de forma ética para evitar responsabilidades legales, proteger su cultura y mantener la confianza entre los empleados", afirma Haller.
También existe un problema denominado "el problema de la adulación de los LLM" (https://arxiv.org/html/2411.15287v1), una tendencia de los LLM a reflejar y reforzar las propias creencias del usuario al proporcionar respuestas sesgadas o desequilibradas que simplemente validan las opiniones existentes del gerente.
Obviamente, hay más. El Washington Post informó recientemente que agentes de IA en todo Estados Unidos también realizan entrevistas preliminares para evaluar a los candidatos ante reclutadores humanos incluso antes de verlos.
Por otro lado, quienes buscan empleo también recurren a la IA para adaptar rápidamente sus currículums y cartas de presentación para postulaciones inmediatas.