Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 625

Incidentes Asociados

Incidente 3733 Reportes
Female Applicants Down-Ranked by Amazon Recruiting Tool

Amazon cierra la herramienta secreta de reclutamiento de inteligencia artificial que se enseñó a sí misma a ser sexista
interestingengineering.com · 2018

Las herramientas de recursos humanos de inteligencia artificial (IA) están de moda en este momento y son cada vez más populares. Los sistemas pueden acelerar, simplificar e incluso disminuir el costo del proceso de contratación convirtiéndose en realidad el sueño de todo reclutador.

Pero como hemos visto antes, los sistemas impulsados por IA también pueden, en ocasiones, exhibir tendencias sesgadas potencialmente peligrosas. En julio pasado, el organismo de control sin fines de lucro, la Unión Estadounidense de Libertades Civiles del Norte de California, se sorprendió al encontrar fallas en la tecnología de reconocimiento facial de Amazon llamada Rekognition que posiblemente podría conducir a identificaciones falsas basadas en la raza.

El descubrimiento provocó protestas públicas con respecto al sistema. Sin embargo, Amazon defendió su programa y dijo que el despliegue de nueva tecnología no podía frustrarse porque algunos "podrían optar por abusar de ella", lo que implica que cualquier problema con Rekognition estaba relacionado con el mal uso por parte del usuario.

IA sexista descartada

Ahora, parece que otra herramienta de IA, esta vez una de recursos humanos, de alguna manera ha aprendido a ser sexista. Según un informe de Reuters, un proyecto interno secreto de Amazon, que intentaba usar IA para examinar solicitudes de empleo, tuvo que descartarse después de que se descubrió que estaba degradando a las candidatas.

Políticos de IA enojados después del reconocimiento facial de Amazon AI compara falsamente a 28 miembros del Congreso con delincuentes

Los expertos en aprendizaje automático de Amazon habían estado trabajando en programas informáticos desde 2014 que podrían revisar y clasificar los currículos de los solicitantes. El sistema funcionaba asignando a los posibles candidatos puntuaciones que oscilaban entre una y cinco estrellas.

“Todos querían este santo grial”, dijo a Reuters una de las personas que trabajan en el proyecto de IA. "Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco primeros y los contrataremos".

Sin embargo, en 2015, los especialistas descubrieron que el sistema estaba haciendo elecciones de candidatos problemáticas relacionadas con el género cuando se trataba de desarrolladores de software y otros puestos técnicos. El problema, según creen los expertos, surgió porque el proceso de verificación de los modelos informáticos se derivó de patrones de contratación anteriores logrados durante un período de 10 años.

Enseñando a sí mismo el sexismo

Y dado que ese período vio que la industria tecnológica estaba particularmente dominada por hombres, el modelo sin darse cuenta se entrenó para preferir a los candidatos masculinos sobre los femeninos. Esencialmente, se entrenó para ser sexista.

Según los informes, el programa ha sido descartado desde entonces, eliminando cualquier posible consecuencia negativa asociada. Pero la historia ilustra los peligros de confiar en datos anteriores para crear nuevos modelos.

Anuncio publicitario

"Todos los seres humanos del planeta están sesgados. Todos portamos un virus incurable llamado nuestro sesgo inconsciente. Creo firmemente que la IA es la única forma en que podemos reducir el sesgo humano con el reclutamiento. Desafortunadamente, el uso ingenuo de la IA para el reclutamiento es una receta garantizada para el desastre. "La IA racista/sexista no es un riesgo, es una garantía si la usan equipos sin experiencia. La IA aprenderá naturalmente nuestro sesgo y lo amplificará", explicó al director de IA de IE en Ziff Ben Taylor.

Aún así, no se debe tirar al bebé con el agua del baño. Hay formas de obtener los beneficios de la IA sin sesgos. "Hay muchas empresas fuera del centro de atención de los medios que utilizan la IA de manera responsable, donde han gastado millones en protecciones/investigación de impactos adversos para evitar que suceda algo como esto", agregó Taylor.

Anuncio publicitario

Desde detectar cánceres hasta hacer que los tratamientos sean menos tóxicos, la tecnología parece estar encontrando usos cada vez más nuevos y muy útiles. Y con las organizaciones que buscan frenar y domar cualquier resultado potencialmente desagradable, es una buena suposición que, si se adopta adecuadamente, la IA puede ser uno de los mayores activos de la humanidad.

Sólo tenemos que permanecer vigilantes y conscientes. A juzgar por la rápida eliminación de la herramienta de reclutamiento misógino de Amazon, parece que estamos en camino de mantener nuestra IA amigable con la humanidad.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e