Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 163

Incidentes Asociados

Incidente 1927 Reportes
Sexist and Racist Google Adsense Advertisements

Loading...
¿Google es racista o el resto de nosotros?
forbes.com · 2013

Una pequeña y encantadora investigación que muestra que los anuncios que se muestran junto con las búsquedas de Google podrían, si así lo desearas, ser vistos como un tanto racistas:

Un estudio reciente de las búsquedas en Google realizado por la profesora Latanya Sweeney encontró una "discriminación significativa" en los resultados de los anuncios dependiendo de si el nombre que está buscando en Google, estadísticamente hablando, es más probable que pertenezca a una persona blanca o negra. Entonces, si bien buscar en Google a Emma probablemente no generará nada más siniestro que una invitación para buscar el número de teléfono y la dirección de Emma, buscar a Jermaine podría generar un anuncio para una búsqueda de antecedentes penales. De hecho, la investigación de Sweeney sugiere que es un 25 % más probable que obtenga anuncios de búsquedas de antecedentes penales de nombres "identificados como negros" que de nombres que suenen blancos.

Lo que nos lleva a un problema. Un problema que vemos en otras áreas también. Por ejemplo, un mercado verdaderamente libre y también un mercado oligopólico mostrarán una actividad similar en los precios. Todos se moverán al mismo tiempo, ya sea hacia arriba o hacia abajo. Por lo tanto, no podemos saber si un mercado es libre u oligopólico simplemente observando que los precios se mueven todos al mismo tiempo.

Aquí tenemos un problema muy similar. Si postulamos que Google, o las personas (o incluso el algoritmo) que colocan los anuncios son racistas, entonces este es el tipo de resultado que esperaríamos ver. Sin embargo, si resulta que somos nosotros los usuarios, en la forma en que entrenamos el algoritmo al hacer clic en los anuncios anteriormente, éramos racistas, esperaríamos ver exactamente los mismos resultados. Por lo tanto, no podemos, simplemente observando las ubicaciones de los anuncios, determinar si somos nosotros o Google los que muestran las actitudes racialmente parciales.

Y también hay una tercera explicación: que no es ningún reflejo de las actitudes en absoluto. Más bien, es solo un reflejo del mundo en el que vivimos. Es bien sabido que la población carcelaria es desproporcionadamente negra. Desproporcionado aquí significa salvajemente, groseramente, sesgado. El por qué es algo sobre lo que todos podemos tener una pelea a gritos, pero los factores contribuyentes son que los negros son, en promedio, más pobres que otros grupos raciales: el crimen y la pobreza están realmente conectados y siempre lo han estado. Hay ciertos delitos que se castigan de manera desproporcionada: por ejemplo, el crack es una droga más pobre y negra que la cocaína, pero los castigos por crack son mucho más altos que los de posesión o tráfico de cocaína. Y ciertamente hay espacio allí para la idea de que, de hecho, existe racismo en la sociedad en general.

Pero dado que esas cosas existen, uno esperaría que los servicios para verificar los antecedentes penales se utilicen más a menudo con nombres que suenan negros que con blancos o asiáticos. Es decir, ya sea que el racismo en la sociedad en general lo condujera o no, la ubicación de los anuncios es completamente racional dada la sociedad en la que estamos.

Todo lo cual es realmente bastante triste para mi mente. Google no es racista por asociar verificaciones de antecedentes penales con nombres que suenan negros. Tampoco lo es la sociedad en general. Porque ambas son acciones enteramente racionales y sin prejuicios. Pero que ambas sean acciones enteramente racionales y sin prejuicios es algo así como una mancha en el escudo de armas de la sociedad.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd