Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2133

Incidentes Asociados

Incidente 954 Reportes
Job Screening Service Halts Facial Analysis of Applicants

Loading...
Queja y solicitud de investigación, orden judicial y otras medidas cautelares
context-cdn.washingtonpost.com · 2019

I. Resumen

Esta queja se refiere a una empresa que pretende evaluar las calificaciones de un solicitante de empleo en función de su apariencia por medio de un algoritmo propietario opaco. HireVue, una empresa ubicada en Utah, proporciona estas "evaluaciones" a las empresas que buscan cubrir vacantes de trabajo, que a su vez toman decisiones de contratación que impactan las oportunidades de empleo de personas específicas. La empresa niega estar involucrada en el reconocimiento facial y no ha demostrado que su técnica cumpla con los estándares mínimos para la toma de decisiones basada en IA establecidos en los Principios de IA de la OCDE o los estándares recomendados establecidos en las Directrices Universales para IA. La empresa se ha involucrado en prácticas comerciales desleales o engañosas, en violación de la Sección 5 de la Ley FTC. Por las razones que se exponen a continuación, la Comisión debe abrir una investigación, emitir una orden judicial y proporcionar cualquier otra reparación que EPIC haya propuesto.

###VI. Violaciones de HireVue de la Ley de la FTC

A. Uso engañoso de la tecnología de reconocimiento facial por parte de HireVue

Como se describió anteriormente, HireVue recopila datos faciales en sus entrevistas en video del candidato al puesto.

Según la FTC, el término “tecnología de reconocimiento facial” incluye “tecnologías que simplemente detectan la geometría facial humana básica; tecnologías que analizan la geometría facial para predecir características demográficas, expresiones o emociones; y tecnologías que miden biometría facial única”.

HireVue, por lo tanto, utiliza "tecnología de reconocimiento facial" en sus evaluaciones basadas en video de los candidatos a puestos de trabajo, según lo define la FTC.

HireVue declara a los candidatos de trabajo que "no utiliza tecnología de reconocimiento facial ni rastrea rasgos faciales con fines de reconocimiento de identidad".

HireVue "carece de una 'base razonable'" para respaldar esta afirmación.

Por lo tanto, HireVue está involucrado en una práctica comercial engañosa en violación de la Ley de la Comisión Federal de Comercio, 15 U.S.C. §§ 45(a)(1).

La FTC ha determinado que los usos engañosos del reconocimiento facial constituyen una violación de la Ley de la FTC.

En abril de 2018, EPIC y una coalición de organizaciones de consumidores presentaron una queja destacando la práctica de Facebook de "escanear[nalizar] fotos de forma rutinaria para buscar coincidencias faciales biométricas sin el consentimiento del sujeto de la imagen", una práctica comercial desleal y engañosa y una violación de la orden de consentimiento de Facebook de 2011 de la Comisión.

En julio de 2019, la Comisión determinó que el uso de la tecnología de reconocimiento facial por parte de Facebook era "[d]engañoso" y "tergiversa[ed] 'la medida en que un consumidor puede controlar la privacidad'" de sus datos faciales en violación de la orden de consentimiento de 2011.

B. Uso injusto de HireVue del reconocimiento facial, datos biométricos y sistemas de IA

Como se describió anteriormente, HireVue utiliza tecnología de reconocimiento facial, datos biométricos y algoritmos secretos para evaluar supuestamente la "capacidad cognitiva", los "rasgos psicológicos", la "inteligencia emocional" y las "aptitudes sociales" de los candidatos a un puesto de trabajo.

El uso de algoritmos secretos por parte de HireVue para analizar los datos biométricos de los candidatos viola los estándares éticos ampliamente adoptados para el uso de inteligencia artificial ("IA") y es "injusto" en el sentido de la Ley de la FTC.

i. Las evaluaciones algorítmicas de HireVue violan los Principios de la OCDE sobre IA

Las evaluaciones algorítmicas de HireVue de los candidatos a puestos de trabajo no son transparentes.

Los candidatos no pueden evaluar ni comprender las evaluaciones algorítmicas de HireVue de los candidatos.

Las evaluaciones algorítmicas de HireVue de los candidatos a puestos de trabajo no pueden cuestionarse de manera significativa.

HireVue no se hace responsable del correcto funcionamiento de sus evaluaciones algorítmicas secretas.

Por lo tanto, HireVue ha violado los Principios de la OCDE sobre Inteligencia Artificial.

ii. Las evaluaciones algorítmicas de HireVue violan las pautas universales para la IA

HireVue no brinda a los candidatos de trabajo acceso a los datos de capacitación, los factores, la lógica o las técnicas utilizadas para generar cada evaluación algorítmica.

HireVue no ha evaluado adecuadamente si el propósito, los objetivos y los beneficios de sus evaluaciones algorítmicas superan los riesgos.

HireVue no ha garantizado la precisión de sus evaluaciones algorítmicas.

HireVue no ha garantizado la fiabilidad de sus evaluaciones algorítmicas.

HireVue no ha garantizado la validez de sus evaluaciones algorítmicas.

HireVue no ha establecido que las evaluaciones estén libres de sesgos injustos y discriminación inadmisible.

Por lo tanto, HireVue ha violado las Pautas universales para la inteligencia artificial.

iii. Las evaluaciones algorítmicas de HireVue son "injustas" según la Ley de la FTC

El uso de HireVue de datos biométricos y algoritmos secretos es "injusto" porque "causa o es probable que cause un daño sustancial a los consumidores que los propios consumidores no pueden evitar razonablemente y que no se compensa con los beneficios compensatorios para los consumidores o la competencia".

El uso de datos biométricos y algoritmos secretos por parte de HireVue causa o es probable que cause daños sustanciales a una gran clase de personas, es decir, candidatos a puestos de trabajo que buscan un contrato con una de las 700 empresas que dependen de las evaluaciones de HireVue.

HireVue afirma recopilar "decenas de miles" de puntos de datos biométricos a través de sus evaluaciones, que incluyen, entre otros, la "entonación", la "inflexión" y las "emociones" de un candidato a un puesto de trabajo.

HireVue ingresa estos puntos de datos personales en "algoritmos predictivos" secretos que supuestamente determinan la "empleabilidad" de cada candidato. Luego, las empresas confían en las evaluaciones de HireVue para determinar si contratar los servicios de cada candidato para el puesto.

Debido a que estos algoritmos son secretos, incluso para el propio HireVue, en algunos casos, es imposible que los candidatos a un puesto de trabajo sepan cómo se utilizan sus datos personales o que consientan dichos usos.

La recopilación intrusiva y el análisis secreto de datos biométricos de HireVue causan daños sustanciales a la privacidad de los candidatos.

La recopilación intrusiva y el análisis secreto de datos biométricos de HireVue también causa daños financieros sustanciales a los candidatos a un puesto de trabajo. A muchos candidatos a puestos de trabajo se les niega la oportunidad de contratar con empresas en función de las evaluaciones algorítmicas de HireVue, y muchos de esos mismos candidatos se ven obligados a gastar recursos significativos para identificar oportunidades de contratación alternativas.

Las lesiones causadas por el uso de datos biométricos y algoritmos secretos por parte de HireVue no pueden evitarse razonablemente. Las evaluaciones basadas en video y juegos de HireVue son utilizadas por 700 empresas”, y los candidatos a puestos de trabajo no tienen la oportunidad de optar por no participar o cuestionar significativamente las evaluaciones de HireVue.

Los daños causados por el uso de datos biométricos y algoritmos secretos por parte de HireVue no se compensan con los beneficios compensatorios para los consumidores o la competencia. HireVue no ha podido demostrar ningún propósito legítimo para la recopilación de datos biométricos de los candidatos laborales o para el uso de algoritmos secretos no probados para evaluar la "capacidad cognitiva", los "rasgos psicológicos", la "inteligencia emocional" y las "aptitudes sociales" de candidatos de trabajo.

Otros métodos que logran el objetivo de evaluar a los candidatos para el puesto están fácilmente disponibles y se han utilizado durante mucho tiempo.

Por lo tanto, HireVue está involucrado en una práctica comercial desleal en violación de la Ley de la Comisión Federal de Comercio, 15 U.S.C. §§ 45(a)(1).

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd