Incidentes Asociados

LinkedIn dice que sus resultados sugeridos se generan automáticamente mediante un análisis de las tendencias de buscadores anteriores.
Busque un contacto femenino en LinkedIn y puede obtener un resultado curioso. El sitio web de redes profesionales pregunta si desea buscar el nombre de un hombre de aspecto similar.
Una búsqueda de "Stephanie Williams", por ejemplo, muestra un mensaje que pregunta si el buscador quiso escribir "Stephen Williams" en su lugar.
No es que no haya personas con ese nombre: unos 2500 perfiles incluyen a Stephanie Williams.
Pero búsquedas similares de nombres femeninos populares, junto con apellidos de marcador de posición, muestran la sugerencia de LinkedIn de cambiar "Andrea Jones" a "Andrew Jones", Danielle a Daniel, Michaela a Michael y Alexa a Alex.
El patrón se repite para al menos una docena de los nombres femeninos más comunes.
Las búsquedas de los 100 nombres masculinos más comunes, por otro lado, no muestran mensajes que pregunten si los usuarios se referían predominantemente a nombres femeninos.
LinkedIn dice que sus resultados sugeridos se generan automáticamente mediante un análisis de las tendencias de buscadores anteriores. "Todo se basa en cómo la gente usa la plataforma", dijo la portavoz Suzi Owens.
La empresa, que Microsoft está comprando en un acuerdo de 26.200 millones de dólares, no pregunta a los usuarios su género al registrarse, y no trata de etiquetar a los usuarios por género supuesto o resultados grupales de esa manera, dijo Owens. LinkedIn está revisando formas de mejorar su tecnología predictiva, dijo.
Owens no dijo si los miembros de LinkedIn, que suman alrededor de 450 millones, eran más hombres que mujeres.
Las indicaciones de nombre de mujer a hombre de LinkedIn surgen cuando algunos investigadores y tecnólogos advierten que los algoritmos de software, utilizados para informar todo, desde qué empresas aparecen en los resultados de búsqueda hasta estrategias de vigilancia, no son inmunes a los sesgos humanos.
"Las historias de discriminación pueden perdurar en las plataformas digitales", escribió Kate Crawford, investigadora de Microsoft, a principios de este año. "Y si no se cuestionan, se vuelven parte de la lógica de los sistemas algorítmicos cotidianos".
Hay mucha evidencia de eso recientemente.
Una aplicación de fotos de Google fue noticia el año pasado al identificar erróneamente a las personas negras como gorilas.
Más recientemente, Tay, un chatbot de Microsoft diseñado para participar en bromas sin sentido en Twitter, se desconectó después de que otros usuarios de Internet persuadieron al software para que repitiera insultos racistas y sexistas.
El impacto de los algoritmos de aprendizaje automático no se limita al mundo digital.
Un análisis de Bloomberg encontró que el servicio de entrega en el mismo día de Amazon, basándose en datos que especifican la concentración de miembros de Amazon Prime, había excluido los vecindarios predominantemente no blancos en seis ciudades.
Mientras tanto, ProPublica descubrió que el software utilizado para predecir las tendencias de los delincuentes reincidentes probablemente marcaría falsamente a los acusados negros como futuros delincuentes.