Incidentes Asociados

Los algoritmos de búsqueda de Google exponen la discriminación racial, según afirma un nuevo estudio realizado por un profesor de Harvard. Afirma que es más probable que aparezcan anuncios relacionados con antecedentes penales cuando se "buscan en Google" "nombres que suenan negros".
Latanya Sweeney, profesora residente de Gobierno y Tecnología en Harvard, descubrió que las búsquedas en Google que involucran "nombres que suenan negros" tienen más del 25 por ciento de probabilidades de producir anuncios que implican que esa persona ha sido arrestada que "nombres que suenan blancos".
¿Qué son los "nombres que suenan en blanco y negro"?
En su artículo "Discriminación en la entrega de anuncios en línea" (publicado el 28 de enero), Sweeney se refiere a un estudio sobre discriminación laboral que "utilizó una correlación de nombres dados a bebés negros y blancos en Massachusetts entre 1974 y 1979".
Primero, usando esos hallazgos, recopiló una lista de más de 2,000 nombres que sugerían raza.
Nombres como Lakisha, DeAndre, Jermaine, Leroy y Darnell tienden a sugerir con mayor frecuencia que la persona era negra, mientras que nombres como Allison, Kristen, Greg o Jack se consideraban nombres de identificación blancos.
Ejemplos de imágenes de rostros en google.com recuperadas para búsquedas "latisha". (Imagen de arxiv.org)
Sweeney ha echado un vistazo a los llamados anuncios de registros públicos como InstantCheckMate o PeopleSmart y algunos otros. Comparó los resultados de búsqueda en Google.com y Reuters.com.
Resultó que los "nombres que suenan negros" tienen más probabilidades que los "nombres que suenan blancos" para activar anuncios que incluyen la palabra "arresto".
La búsqueda de nombres como Leroy, Jamal o Kenya arrojó un mayor porcentaje de anuncios con la palabra "arrestado" en el texto del anuncio, mientras que para Jack o Greg, por ejemplo, aparecieron anuncios neutrales, sin texto relacionado con delitos.
En la búsqueda de Google, los anuncios de InstantCheckMate contenían la palabra "arrestado" en el 92 por ciento de los resultados (en 332 casos de 366) cuando se buscaban nombres que "sonaban negros", aparecía el 8 por ciento de los anuncios neutrales.
A modo de comparación, en la búsqueda de Reuters, los anuncios InstantCheckMate sugirieron verificar los antecedentes penales en el 60 por ciento de todos los nombres de identificación negros.
Sweeney probó con su propio nombre. Informática sin antecedentes penales, descubrió que antes de presentar sus méritos académicos, primero fue recibida por un anuncio que sugería verificar si “Latanya Sweeney, arrestada?”
Sweeney siguió el enlace y pagó una tarifa para descubrir que no había antecedentes penales asociados con ese nombre.
"Quizás estés compitiendo por un premio, un nombramiento, un ascenso o un nuevo trabajo...", escribe la científica en su artículo, dando un montón de circunstancias por las que un investigador en línea busca aprender más sobre una persona.
“Aparece junto a su lista de logros un anuncio que implica que puede tener antecedentes penales, ya sea que los tenga o no”, concluyó Sweeney.
Sin embargo, dudó en explicar la causa de las diferencias en los anuncios, diciendo que se necesita más información “sobre el funcionamiento interno de Google AdSense [herramienta de anuncios en línea de Google]”.
Sweeney sugirió que los motores de búsqueda podrían ser solo un reflejo de los prejuicios de la sociedad y que los anuncios entregados se basan simplemente en los enlaces más populares en los que han hecho clic los usuarios anteriores.
"Entonces, el texto del anuncio que obtiene la mayor cantidad de clics finalmente se muestra con más frecuencia", explicó.
Google AdSense ha respondido a los hallazgos de Sweeney diciendo que no realiza ningún perfil racial en su software de búsqueda.