Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 835

Incidentes Asociados

Incidente 479 Reportes
LinkedIn Search Prefers Male Names

Loading...
El algoritmo de búsqueda de LinkedIn aparentemente favorecía a los hombres hasta esta semana
qz.com · 2016

Hasta el 7 de septiembre, los usuarios de LinkedIn que buscan contactos femeninos en el sitio pueden haber notado algunos resultados extraños. Las búsquedas de nombres femeninos comunes también arrojaban sugerencias para nombres masculinos.

Realice una búsqueda en LinkedIn de "Stephanie Williams". A principios de esta semana, esa consulta arrojó el resultado, "¿quiso decir Stephen Williams?" (además de los más de 2500 usuarios que actualmente se llaman Stephanie Williams). Sin embargo, una búsqueda de "Stephen Williams" simplemente mostraba los 7200 resultados de personas con ese nombre.

Lo mismo ocurrió con las búsquedas de al menos una docena de otros nombres femeninos populares en los EE. UU., reveló una investigación del Seattle Times. LinkedIn se preguntó si los usuarios que buscaban a Andrea se referían a Andrew, Danielle a Daniel y Alexa a Alex. Las búsquedas de los 100 nombres masculinos más comunes de EE. UU. no arrojaron sugerencias de nombres femeninos.

Los resultados de "quiso decir" de LinkedIn están impulsados por un algoritmo diseñado para sugerir nombres con ortografía similar. El algoritmo hace recomendaciones basadas en la frecuencia con la que han aparecido nombres en consultas anteriores de los más de 450 millones de perfiles de miembros de la empresa, dice la portavoz Suzi Owens. “No tiene nada que ver con el género”, dijo.

De todos modos, el 7 de septiembre, la empresa con sede en Silicon Valley implementó un cambio en el algoritmo que le permite reconocer explícitamente los nombres populares como tales, para que el algoritmo no intente corregirlos.

Parece estar funcionando: las búsquedas de nombres como Dana, Joan, Danielle, Alexa y Stephanie ya no devuelven ningún resultado de "quiso decir".

El problema subraya los sesgos presentes en los sistemas de inteligencia artificial que aprenden del comportamiento de otros usuarios. A principios de este año, Microsoft se vio obligado a desconectar su chatbot milenario después de que aprendió a hacer comentarios racistas y sexistas de los usuarios en Twitter. (Microsoft también está adquiriendo LinkedIn).

“Al igual que con todos los sistemas de aprendizaje automático, siempre hay casos extremos y trabajamos constantemente para mejorar y crear la mejor experiencia posible para nuestros miembros”, dice Owens.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd