Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 834

Incidentes Asociados

Incidente 479 Reportes
LinkedIn Search Prefers Male Names

Loading...
Las empresas tecnológicas trabajan para que las búsquedas en sitios web estén libres de sesgos
startribune.com · 2016

– Busque un contacto femenino en LinkedIn y puede obtener un resultado curioso. El sitio web de redes profesionales pregunta si desea buscar el nombre de un hombre de aspecto similar.

Una búsqueda de "Stephanie Williams", por ejemplo, muestra un mensaje que pregunta si el buscador quiso escribir "Stephen Williams" en su lugar.

No es que no haya personas con ese nombre: unos 2500 perfiles incluyen a Stephanie Williams.

Pero búsquedas similares de nombres femeninos populares, junto con apellidos de marcadores de posición, muestran la sugerencia de LinkedIn de cambiar "Andrea Jones" por "Andrew Jones", Danielle por Daniel, Michaela por Michael y Alexa por Alex.

El patrón se repite para al menos una docena de los nombres femeninos más comunes en los Estados Unidos.

Las búsquedas de los 100 nombres masculinos más comunes en los EE. UU., por otro lado, no muestran mensajes que pregunten si los usuarios se referían predominantemente a nombres femeninos.

LinkedIn dijo que sus resultados sugeridos se generan automáticamente mediante un análisis de las tendencias de buscadores anteriores. "Todo se basa en cómo la gente usa la plataforma", dijo la portavoz Suzi Owens.

La compañía de Mountain View, California, que Microsoft está comprando en un acuerdo de $ 26,2 mil millones, no pregunta a los usuarios su género al registrarse y no trata de etiquetar a los usuarios por género supuesto o resultados grupales de esa manera, dijo Owens. LinkedIn está revisando formas de mejorar su tecnología predictiva, dijo.

Owens no dijo si los miembros de LinkedIn, que suman alrededor de 450 millones, eran más hombres que mujeres. Una encuesta de Pew Research del año pasado no encontró una gran brecha en el género de los usuarios de LinkedIn en los EE. UU. Alrededor del 26 por ciento de los usuarios masculinos de Internet usaban LinkedIn, en comparación con el 25 por ciento de todas las usuarias de Internet, dijo Pew.

Las indicaciones de nombre de mujer a hombre de LinkedIn surgen cuando algunos investigadores y tecnólogos advierten que los algoritmos de software, utilizados para informar todo, desde qué empresas aparecen en los resultados de búsqueda hasta estrategias de vigilancia, no son inmunes a los sesgos humanos.

"Las historias de discriminación pueden perdurar en las plataformas digitales", escribió Kate Crawford, investigadora de Microsoft, en el New York Times a principios de este año. "Y si no se cuestionan, se vuelven parte de la lógica de los sistemas algorítmicos cotidianos".

Hay mucha evidencia de eso recientemente. Una aplicación de fotos de Google fue noticia el año pasado al identificar erróneamente a las personas negras como gorilas.

Más recientemente, Tay, un chatbot de Microsoft diseñado para participar en bromas sin sentido en Twitter, se desconectó después de que otros usuarios de Internet persuadieron al software para que repitiera insultos racistas y sexistas.

El efecto de los algoritmos de aprendizaje automático no se limita al mundo digital.

Un análisis de Bloomberg encontró que el servicio de entrega en el mismo día de Amazon.com, basándose en datos que especifican la concentración de miembros de Amazon Prime, había excluido los vecindarios predominantemente no blancos en seis ciudades de EE. UU. Mientras tanto, ProPublica descubrió que el software utilizado para predecir las tendencias de los delincuentes reincidentes probablemente marcaría falsamente a los acusados negros como futuros delincuentes.

Las personas que trabajan en inteligencia artificial dijeron que uno de los desafíos en la construcción de algoritmos libres de sesgos es una fuerza laboral en el campo que se sesga en gran medida entre blancos y hombres.

"Realmente se trata de si está ingresando los datos de capacitación correctos en el sistema", dijo Kieran Snyder, director ejecutivo de Textio, una empresa emergente de Seattle que crea una herramienta diseñada para detectar patrones, incluida la evidencia de sesgo, en las listas de empleo. . "Un conjunto más amplio de personas [que trabajan en el software] habría descubierto cómo obtener un conjunto más amplio de datos en primer lugar".

Hace unos meses, Snyder dijo que un análisis de Textio encontró que las ofertas de trabajo para roles de aprendizaje automático contenían un lenguaje que probablemente atraería más a los candidatos masculinos que el puesto de trabajo promedio de la industria tecnológica.

"Estos dos trenes de conversación, uno sobre inclusión en tecnología, el otro sobre [inteligencia artificial], solo han estado creciendo en impulso durante los últimos años", dijo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd