Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 162

Incidentes Asociados

Incidente 1927 Reportes
Sexist and Racist Google Adsense Advertisements

Loading...
Investigador de Harvard: los anuncios generados por Google muestran prejuicios raciales
thecrimson.com · 2013

ACTUALIZADO: 20 de febrero de 2013 a las 10:35 a. m.

Un investigador de Harvard descubrió que los nombres típicamente afroamericanos tienen más probabilidades de estar vinculados a antecedentes penales en los anuncios generados por Google en el motor de búsqueda en línea y en el sitio de noticias Reuters.com, un sitio web al que Google proporciona anuncios.

Latanya Sweeney, directora del Data Privacy Lab de Harvard, comenzó su investigación después de que un colega, el miembro del departamento de gobierno Adam Tanner, le dijera que su búsqueda en Google de su nombre había generado un anuncio que decía: “Latanya Sweeney: arrestada”.

Con incredulidad, Sweeney comenzó a hurgar en línea y descubrió que los anuncios del sitio de antecedentes penales InstantCheckmate.com sugerían incorrectamente que tenía un historial de arrestos. Luego, los dos ingresaron el nombre de Tanner en Google y, para sorpresa de la pareja, generó un anuncio neutral de InstantCheckmate que no insinuaba antecedentes penales.

“Adam llegó a la conclusión de que [los anuncios] aparecían con nombres que parecían negros”, dijo Sweeney. “Pasé horas tratando de demostrarle que estaba equivocado y que no podía”.

Anuncio publicitario

Así comenzó el inicio de un estudio de investigación, parcialmente financiado por Google, que involucró una revisión exhaustiva de Internet y numerosas bases de datos. El artículo de investigación de Sweeney que resume sus hallazgos está programado para su publicación en una revista académica.

Primero, Sweeney identificó nombres típicamente afroamericanos usando una base de datos que compiló nombres dados de manera desproporcionada a bebés de una identidad racial sobre otra. Luego emparejó los nombres con los apellidos al identificar a profesionales reales con calificaciones académicas (médicos, por ejemplo) y verificó sus identidades raciales con los resultados de búsqueda de imágenes de Google. Finalmente, utilizando una muestra de nombres típicamente caucásicos y afroamericanos, realizó un análisis de los resultados de búsqueda.

Según Sweeney, Google sostiene que no puede predecir qué anuncios (positivos o negativos) serán los más populares, por lo que los anuncios se distribuyen inicialmente al azar. Sin embargo, en búsquedas de nombres típicamente afroamericanos en Google y Reuters.com, Sweeney encontró que entre el 81 y el 95 por ciento de los anuncios generados sugerían un arresto.

“Es un espejo interesante de la sociedad”, dijo Sweeney, “que Internet, que comenzó neutral, ha comenzado a mostrar prejuicios raciales”.

Cuando se le pidió un comentario, el portavoz de Google, Aaron J. Stein, escribió en un correo electrónico que AdWords, el producto publicitario rentable de Google, no se involucra en la discriminación racial.

“También tenemos una política que establece que no permitiremos anuncios que aboguen en contra de una organización, persona o grupo de personas”, escribió Stein. "Depende de los anunciantes individuales decidir qué palabras clave quieren elegir para activar sus anuncios".

Reuters.com no pudo ser contactado de inmediato para comentar sobre el estudio de Sweeney el miércoles por la noche.

Sweeney dijo que hay dos posibles razones para los resultados aparentemente sesgados: el algoritmo generado por computadora de Google puede estar sesgado involuntariamente, o los usuarios de Google pueden optar por hacer clic con más frecuencia en los anuncios de arrestos que aparecen con nombres negros en lugar de nombres blancos.

Gary King, director del Instituto de Ciencias Sociales Cualitativas de Harvard, escribió en un correo electrónico que aislar la causa de los resultados de búsqueda sesgados determinará los próximos pasos para los investigadores.

“Diseñar los patrones, como lo está haciendo Latanya, y luego determinar sus causas y efectos, es muy importante”, escribió King.

—Se puede comunicar con la redactora Anneli L. Tostar en annelitostar@college.harvard.edu, sígala en Twitter en @annelitostar.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd