Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 833

Incidentes Asociados

Incidente 479 Reportes
LinkedIn Search Prefers Male Names

Loading...
La investigación de LinkedIn afirma que las búsquedas de mujeres profesionales terminan sugiriendo HOMBRES
dailymail.co.uk · 2016

La cuestión de si una computadora puede estar sesgada o no puede parecer frívola, pero podría marcar la diferencia cuando se trata de ser encontrada en línea.

Ahora, una investigación realizada por un periódico estadounidense ha sugerido que este sesgo puede estar presente en el sitio de redes profesionales más grande del mundo.

Descubrió que una búsqueda de nombres femeninos comunes en LinkedIn arrojó sugerencias de nombres masculinos relacionados.

Una investigación realizada por un periódico estadounidense ha sugerido que el sesgo de género puede estar presente en el sitio de redes profesionales más grande del mundo, al sugerir nombres masculinos al buscar profesionales femeninas. LinkedIn ha negado que sus algoritmos utilicen el género

LINKEDIN 'SESGO DE BÚSQUEDA' Una investigación ha afirmado que la función de búsqueda de LinkedIn tiene un sesgo de género. Al buscar nombres femeninos comunes, como 'Andrea Jones', también arrojó sugerencias de equivalentes masculinos, como 'Andrew Jones'. Se encontró que el sesgo no funciona a la inversa, sugiriendo equivalentes femeninos en las búsquedas de profesionales masculinos. LinkedIn ha dicho que sus algoritmos no se basan en el género sino en búsquedas anteriores de sus 450 millones de usuarios.

Según el informe de The Seattle Times, el mismo patrón funciona para al menos una docena de nombres femeninos comunes en los EE. UU.

Además, el sesgo aparente parece ser una calle de un solo sentido.

Al buscar nombres masculinos comunes, no hay sugerencias de mujeres con un nombre similar.

Afirma que una búsqueda del nombre común 'Stephanie Williams' sugiere 'Stephen Williams'.

Otros ejemplos incluyen una búsqueda de 'Andrea Jones' que trae muchos detalles para 'Andrew Jones'.

MailOnline pudo replicar algunos de los resultados.

LinkedIn es la plataforma de redes profesionales más grande del mundo y cuenta con más de 450 millones de usuarios. Está previsto que lo compre el gigante del software Microsoft en un acuerdo por un valor estimado de 17.700 millones de libras esterlinas (26.200 millones de dólares).

En respuesta a las afirmaciones, LinkedIn dijo que las búsquedas se basan en consultas de búsqueda comunes de sus 450 millones de usuarios, basadas en nombres escritos de manera similar, que no tienen nada que ver con el sexo del usuario.

La investigación afirma que una búsqueda de nombres femeninos comunes da como resultado sugerencias para profesionales masculinos, como una búsqueda de 'Andrea Jones' trae muchas sugerencias para 'Andrew Jones' (en la foto)

LinkedIn es la plataforma de redes profesionales más grande del mundo y cuenta con más de 450 millones de usuarios. Está previsto que lo compre el gigante del software Microsoft en un acuerdo por un valor estimado de £ 17,7 mil millones ($ 26,2 mil millones)

¿PUEDEN LAS COMPUTADORAS SER SESGADA? Al enseñar a las máquinas cómo procesar el lenguaje, los programadores pueden usar algoritmos de incrustación de palabras. Estos programas permiten que las computadoras usen el aprendizaje automático para procesar el lenguaje basado en ejemplos aprendidos. Un ejemplo es cuando una computadora tiene que encontrar palabras relacionadas usando la comparación 'ella es a él'. Esto se puede usar para encontrar pares precisos de palabras como ella:él, como hermana:hermano o reina:rey. Pero el uso de fuentes del mundo real, como artículos de noticias y sitios web, puede generar sesgos de género. Por ejemplo, las ocupaciones asociadas con 'él' pueden ser filósofo, piloto de combate o jefe. Pero las ocupaciones asociadas con 'ella' incluían ama de casa, miembro de la alta sociedad, recepcionista y peluquera. Los investigadores están tratando de combatir este sesgo enseñando a las máquinas a ignorar ciertas relaciones entre las palabras.

Un portavoz de la plataforma de redes le dijo a MailOnline: “El algoritmo de búsqueda se guía por las frecuencias relativas de las palabras que aparecen en consultas anteriores y perfiles de miembros; no tiene que ver con el género.

“Para corregir las sugerencias ortográficas no deseadas que suenan de manera similar, implementamos un cambio que reconoce explícitamente los nombres de las personas para que el algoritmo no intente corregirlos con otro nombre, del mismo o diferente género.

"Al igual que con todos los sistemas de aprendizaje automático, siempre hay casos extremos y trabajamos constantemente para mejorar y crear la mejor experiencia posible para nuestros miembros".

A medida que los algoritmos de aprendizaje automático se utilizan cada vez más para tratar consultas complejas, salen a la luz instancias de sesgo inherente.

Un ejemplo son los algoritmos utilizados para predecir las tasas de reincidencia en ex delincuentes en los EE. UU., en función de factores sociales y sociales.

Algunos informes han afirmado que estos algoritmos predictivos pueden sesgar los resultados según la raza, y los afroamericanos enfrentan resultados más negativos.

Mientras que otros ejemplos incluyen una técnica llamada incrustación de palabras, que enseña a las máquinas cómo procesar el lenguaje al encontrar relaciones entre palabras.

Pero cuando la computadora busca fuentes del mundo real, el enfoque integrado puede detectar estereotipos de género inherentes.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd