Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 171

Incidentes Asociados

Incidente 1927 Reportes
Sexist and Racist Google Adsense Advertisements

Loading...
¿Los resultados de los anuncios de Google son culpables de los perfiles raciales?
cio.com · 2013

¿Es el algoritmo de búsqueda de Google culpable de racismo? Un estudio realizado por un investigador de Harvard descubrió que podría serlo.

La profesora Latanya Sweeney dice que encontró una "discriminación estadísticamente significativa" al comparar anuncios publicados con resultados de búsquedas en línea realizadas con nombres asociados con negros y con nombres asociados con blancos. Sweeney, que es afroamericana, comenzó su estudio después de enterarse de que una búsqueda en Google de su propio nombre produjo un anuncio de un servicio de verificación de antecedentes, insinuando que había sido arrestada.

Su hipótesis: los nombres que están asociados con los afroamericanos, como Latanya, tienen más probabilidades de desencadenar asociaciones publicitarias negativas que nombres como Jill, que no lo están.

No he hablado con Sweeney (su foto está a la izquierda), pero no creo que esté acusando a Google de racismo deliberado, y yo tampoco. Sería fácil para algunos descartar su trabajo como una corrección política tortuosa, pero eso también está mal. Creo que lo importante de su trabajo es que da una idea de la experiencia que los afroamericanos pueden tener en Internet.

Después de todo, hacer una búsqueda con su propio nombre (apuesto a que lo ha hecho) y recibir un anuncio de un servicio llamado Instantcheckmate que implica que usted es un delincuente, tiene que sentirse degradante. Cuando Sweeney buscó su nombre, los anuncios de Instantcheckmate decían "Latanya Sweeney, ¿Arrestada?" y "Verifique los arrestos de Latanya Sweeney", aparecieron en la parte de resultados pagados de la página de búsqueda.

¿Y si su hija hubiera visto eso?

Cuando Sweeney luego hizo clic en esos anuncios y pagó la tarifa, resultó, como era de esperar, que no había ningún registro de su arresto. Por el contrario, buscó los nombres "Kristen Haring", "Kristen Sparrow" y "Kristen Lindquist". Aparecieron anuncios, pero no de Instantcheckmate u otros servicios similares. Pero cuando buscó esos nombres en Instantcheckmate, había registros de arresto de dos de esas mujeres en la base de datos de la empresa.

En Reuters.com, que utiliza Google AdSense para publicar anuncios, "un nombre que se identificara como negro tenía un 25 por ciento más de probabilidades de obtener un anuncio que sugiriera un registro de arresto", encontró Sweeney. En Google, el 92 por ciento de los anuncios que aparecían junto a nombres que se identificaban con negros sugerían antecedentes penales, en comparación con el 80 por ciento de los nombres que se identificaban con blancos, escribió.

No está claro qué hay en el fondo de esto. Google, por supuesto, niega que se involucre en lo que llamaría perfiles raciales. Puede ser que Instant Checkmate, que tuvo la mayor cantidad de anuncios en línea de todas las compañías rastreadas en el estudio, optó por vincular los nombres que identifican a los negros con plantillas de anuncios que sugerían antecedentes penales, aunque la compañía le dijo a Sweeney que no hace eso.

"Hay discriminación en la entrega de estos anuncios", escribe Sweeney en su informe. "Tenga en cuenta que el racismo puede resultar, incluso si no es intencional, y que la actividad en línea puede ser tan omnipresente e íntimamente entrelazada con el diseño de tecnología que los tecnólogos ahora pueden tener que pensar en las consecuencias sociales como el racismo estructural en la tecnología que diseñan".

Sospecho que lo que puede estar pasando aquí tiene que ver con el tipo de búsquedas que hacen millones de personas todos los días. El algoritmo de Google realiza un seguimiento de las búsquedas y utiliza esa información para hacer que la búsqueda sea más relevante. Si suficientes personas están buscando nombres que suenan negros y términos como crimen, eso podría explicar esto.

En última instancia, apuesto a que nunca lo sabremos, pero vale la pena pensar en las formas en que la Web nos afecta a todos de maneras muy inesperadas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd