Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1367

Incidentes Asociados

Incidente 1810 Reportes
Gender Biases of Google Image Search

Loading...
El algoritmo de Google muestra anuncios de trabajo prestigiosos para hombres, pero no para mujeres. He aquí por qué eso debería preocuparte.
washingtonpost.com · 2015

Recién salido de la revelación de que las búsquedas de imágenes de Google para "CEO" solo muestran imágenes de hombres blancos, hay nueva evidencia de que el sesgo algorítmico está, por desgracia, en eso nuevamente. En un artículo publicado en abril, un equipo de investigadores de la Universidad Carnegie Mellon afirma que Google muestra muchos menos anuncios de puestos ejecutivos bien remunerados...

Siga lo último sobre las elecciones de 2020

… si eres mujer.

“Creo que nuestros hallazgos sugieren que hay partes del ecosistema publicitario donde comienzan a surgir tipos de discriminación y hay una falta de transparencia”, dijo Annupam Datta, profesora de Carnegie Mellon, a Technology Review. “Esto es preocupante desde un punto de vista social”.

Para llegar a esas conclusiones, Datta y sus colegas básicamente crearon una herramienta, llamada Ad Fisher, que rastrea cómo el comportamiento del usuario en Google influye en los anuncios de Google personalizados que ve cada usuario. Debido a que esa relación es complicada y se basa en muchos factores, los investigadores utilizaron una serie de cuentas falsas: solicitantes de empleo teóricos cuyo comportamiento podían seguir de cerca.

[El fallo de la Casa Blanca de Google Maps, el autoetiquetado de Flickr y el caso del algoritmo racista]

Ese comportamiento en línea (visitar sitios de trabajo y nada más) fue el mismo para todas las cuentas falsas. Pero algunos enumeraron su sexo como hombres y otros como mujeres.

El equipo de Ad Fisher descubrió que cuando Google suponía que los usuarios eran hombres que buscaban trabajo, era mucho más probable que se les mostraran anuncios de puestos ejecutivos bien remunerados. Google mostró los anuncios 1852 veces al grupo masculino, pero solo 318 veces al grupo femenino.

Esta no es la primera vez que los sistemas de algoritmos parecen ser sexistas, o racistas, para el caso. Cuando Flickr presentó las herramientas de reconocimiento de imágenes en mayo, los usuarios notaron que la herramienta a veces etiquetaba a las personas negras como "simios" o "animales". Un estudio histórico en Harvard encontró previamente una discriminación grave en la entrega de anuncios en línea, como cuando la búsqueda de nombres étnicos en Google arrojó más resultados en torno a los registros de arrestos. Los algoritmos se han contratado por inflexión de voz. La lista sigue y sigue.

[La incómoda verdad sobre cómo vemos a las mujeres trabajadoras, en una simple búsqueda en Google]

Pero, ¿cuánto de esto somos nosotros y cuánto de esto está integrado en el algoritmo? Es una pregunta que mucha gente está luchando por responder.

Después de todo, los sistemas algorítmicos de personalización, como los que se encuentran detrás de la plataforma publicitaria de Google, no funcionan en el vacío: están programados por humanos y se les enseña a aprender del comportamiento del usuario. Entonces, cuanto más hacemos clic o buscamos o, en general, en Internet de manera sexista y racista, los algoritmos aprenden a generar esos resultados y anuncios (supuestamente los resultados que esperaríamos ver).

"Es parte de un ciclo: la forma en que las personas perciben las cosas afecta los resultados de búsqueda, lo que afecta la forma en que las personas perciben las cosas", Cynthia Matuszek, profesora de ética informática en la Universidad de Maryland y coautora de un estudio sobre el sesgo de género en los resultados de búsqueda de imágenes de Google. , dijo a The Washington Post en abril.

[Lo que podemos aprender de estos resultados poco legítimos de Google Knowledge Graph]

Google advierte que algunas otras cosas también podrían estar sucediendo aquí. El anunciante en cuestión podría haber especificado que el anuncio solo se muestra a ciertos usuarios por una gran cantidad de razones, o el anunciante podría haber especificado que el anuncio solo se muestra en ciertos sitios de terceros.

“Los anunciantes pueden elegir dirigirse a la audiencia a la que quieren llegar, y tenemos políticas que guían el tipo de anuncios basados en intereses que están permitidos”, se lee en un comunicado de Google.

Sin embargo, lo interesante de los usuarios falsos en el estudio de Ad Fisher es que tenían un historial de búsqueda completamente nuevo: de hecho, las cuentas utilizadas eran más o menos idénticas, excepto por su identidad de género en la lista. Eso parecería indicar que los anunciantes solicitan que los anuncios de empleo bien remunerados solo se muestren a los hombres (y que Google cumple con esa solicitud) o que se ha programado algún tipo de sesgo, aunque sin darse cuenta, en el sistema de personalización de anuncios de Google.

En cualquier caso, Datta, el investigador de Carnegie Mellon, dice que aquí hay espacio para mucha más erudición y escrutinio.

“Muchas decisiones importantes en la sociedad en estos días están siendo tomadas por algoritmos”, dijo. “Estos algoritmos se ejecutan dentro de cajas de las que no tenemos acceso a los detalles internos. La génesis de este proyecto fue que queríamos mirar un poco dentro de esta caja para ver si hay más consecuencias indeseables de esta actividad”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd