Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 829

Incidentes Asociados

Incidente 479 Reportes
LinkedIn Search Prefers Male Names

Loading...
El motor de búsqueda de LinkedIn puede reflejar un sesgo de género
stuff.co.nz · 2016

LinkedIn dice que sus resultados sugeridos se generan automáticamente mediante un análisis de las tendencias de buscadores anteriores.

Busque un contacto femenino en LinkedIn y puede obtener un resultado curioso. El sitio web de redes profesionales pregunta si desea buscar el nombre de un hombre de aspecto similar.

Una búsqueda de "Stephanie Williams", por ejemplo, muestra un mensaje que pregunta si el buscador quiso escribir "Stephen Williams" en su lugar.

No es que no haya personas con ese nombre: unos 2500 perfiles incluyen a Stephanie Williams.

Pero búsquedas similares de nombres femeninos populares, junto con apellidos de marcador de posición, muestran la sugerencia de LinkedIn de cambiar "Andrea Jones" a "Andrew Jones", Danielle a Daniel, Michaela a Michael y Alexa a Alex.

El patrón se repite para al menos una docena de los nombres femeninos más comunes.

Las búsquedas de los 100 nombres masculinos más comunes, por otro lado, no muestran mensajes que pregunten si los usuarios se referían predominantemente a nombres femeninos.

LinkedIn dice que sus resultados sugeridos se generan automáticamente mediante un análisis de las tendencias de buscadores anteriores. "Todo se basa en cómo la gente usa la plataforma", dijo la portavoz Suzi Owens.

La empresa, que Microsoft está comprando en un acuerdo de 26.200 millones de dólares, no pregunta a los usuarios su género al registrarse, y no trata de etiquetar a los usuarios por género supuesto o resultados grupales de esa manera, dijo Owens. LinkedIn está revisando formas de mejorar su tecnología predictiva, dijo.

Owens no dijo si los miembros de LinkedIn, que suman alrededor de 450 millones, eran más hombres que mujeres.

Las indicaciones de nombre de mujer a hombre de LinkedIn surgen cuando algunos investigadores y tecnólogos advierten que los algoritmos de software, utilizados para informar todo, desde qué empresas aparecen en los resultados de búsqueda hasta estrategias de vigilancia, no son inmunes a los sesgos humanos.

"Las historias de discriminación pueden perdurar en las plataformas digitales", escribió Kate Crawford, investigadora de Microsoft, a principios de este año. "Y si no se cuestionan, se vuelven parte de la lógica de los sistemas algorítmicos cotidianos".

Hay mucha evidencia de eso recientemente.

Una aplicación de fotos de Google fue noticia el año pasado al identificar erróneamente a las personas negras como gorilas.

Más recientemente, Tay, un chatbot de Microsoft diseñado para participar en bromas sin sentido en Twitter, se desconectó después de que otros usuarios de Internet persuadieron al software para que repitiera insultos racistas y sexistas.

El impacto de los algoritmos de aprendizaje automático no se limita al mundo digital.

Un análisis de Bloomberg encontró que el servicio de entrega en el mismo día de Amazon, basándose en datos que especifican la concentración de miembros de Amazon Prime, había excluido los vecindarios predominantemente no blancos en seis ciudades.

Mientras tanto, ProPublica descubrió que el software utilizado para predecir las tendencias de los delincuentes reincidentes probablemente marcaría falsamente a los acusados negros como futuros delincuentes.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd