Problema 2297

El uso cada vez mayor de una tecnología llamada inteligencia artificial emocional podría conducir a la discriminación contra las personas con enfermedades mentales, particularmente en el empleo, advirtió un informe dirigido por un profesor del College of Human.
Las empresas y las agencias gubernamentales están expandiendo rápidamente el uso de la inteligencia artificial emocional (IA), incluso en la evaluación de los solicitantes de empleo y el seguimiento de los trabajadores, con poca evidencia de que sea científicamente válido, según el artículo publicado en la revista [Current Psychiatry Reports](https:/ /link.springer.com/article/10.1007/s11920-022-01330-7) dijo.
"Existe la preocupación de que el uso comercial de la IA de emociones aumente el estigma y la discriminación y tenga consecuencias negativas en la vida diaria de las personas con enfermedades mentales", dijo el informe, y agregó que "las predicciones de algoritmos de IA de emociones comerciales sobre enfermedades mentales no deben tratarse como médicas". hecho."
Los algoritmos miden las características faciales, el lenguaje corporal, los patrones del habla, la frecuencia cardíaca, la respiración, el seguimiento de los ojos, la sudoración y otros datos, incluidas las publicaciones en las redes sociales, para llegar a una conclusión sobre el estado emocional de una persona. Los programas también podrían discriminar según la raza y el género, ya que los investigadores sospechan que los algoritmos se basan en gran medida en las características de los hombres blancos.
"Sabemos que la IA tiene incorporados los mismos sesgos que tienen los humanos", dijo Scott Monteith, MD, psiquiatra, profesor asistente clínico de psiquiatría y autor principal del estudio. "Cuando se trata de enfermedades mentales, lamentablemente hay una enorme cantidad de estigma".
Los algoritmos de IA, incluidos los desarrollados por las principales compañías de software, son propietarios y, por lo tanto, no están disponibles para que los investigadores independientes juzguen la validez científica, dijo Monteith.
Se espera que el mercado mundial de inteligencia artificial emocional aumente de $ 19,9 mil millones en 2020 a $ 52,8 mil millones para 2026. La publicidad, el marketing, el comercio minorista, la educación, la policía, el empleo y los seguros se encuentran entre los 18 sectores comerciales que ya utilizan emoción AI, según un 2018 Informe de las Naciones Unidas.
Los solicitantes de empleo y los empleados a menudo no saben que la IA los está monitoreando y juzgando sobre su estado emocional.
“Ese es uno de los elementos desafiantes de esto”, dijo Monteith, quien tiene su sede en Traverse City. "A veces se usa IA y es posible que no se dé cuenta de que se está usando. Es insidiosa y cada vez más ubicua".
Para las personas con enfermedades mentales, eso es particularmente problemático, dijo, porque las personas con enfermedades mentales, otras discapacidades o desfiguraciones faciales podrían no ser analizadas de manera precisa o justa, decía el artículo.
Algunos programas de inteligencia artificial escanean los currículums en busca de palabras clave y usan algoritmos para analizar el texto, lo que aumenta la posibilidad de que algunos solicitantes de empleo sean rechazados sin la participación humana. Al analizar imágenes faciales, los programas suelen buscar indicadores de seis estados emocionales: ira, disgusto, miedo, felicidad, tristeza y sorpresa.
Uno de los objetivos principales de su artículo, dijo Monteith, era crear conciencia sobre cuán común se está volviendo la inteligencia artificial emocional y que no se basa en evidencia científica sólida.
La tecnología, sugirió, debería regularse a través de una combinación de estándares gubernamentales y "directrices de mejores prácticas" voluntarias.
"Soy muy pro tecnología", dijo. "Como cualquier herramienta, la IA es potencialmente útil y potencialmente dañina. La IA debe ser examinada para proteger a todos los involucrados".