Incidentes Asociados
Es bien sabido que Google y otras empresas rastrean nuestros movimientos en la Web para orientarnos con anuncios. No se sabe exactamente cómo se usa esa información, pero un trabajo de investigación presentado la semana pasada sugiere que algunos de los juicios algorítmicos que surgen del sistema de anuncios de Google podrían parecer desagradables para muchas personas.
Investigadores de la Universidad Carnegie Mellon y el Instituto Internacional de Ciencias de la Computación crearon una herramienta llamada AdFisher para investigar la orientación de los anuncios publicados por Google en sitios web de terceros. Descubrieron que los usuarios falsos de la web que Google creía que eran hombres que buscaban trabajo tenían muchas más probabilidades que las mujeres que buscaban trabajo equivalentes de ver un par de anuncios de trabajos ejecutivos bien remunerados cuando luego visitaban un sitio web de noticias.
AdFisher también mostró que una herramienta de transparencia de Google llamada "configuración de anuncios", que le permite ver y editar los "intereses" que la empresa ha inferido para usted, no siempre refleja la información potencialmente confidencial que se utiliza para dirigirse a usted. Navegar por sitios dirigidos a personas con problemas de abuso de sustancias, por ejemplo, desencadenó una serie de anuncios de programas de rehabilitación, pero no hubo cambios en la página de transparencia de Google.
No está claro qué causó exactamente esos patrones específicos, porque el sistema de publicación de anuncios de Google es muy complejo. Google usa sus datos para orientar los anuncios, pero los compradores de anuncios pueden tomar algunas decisiones sobre la demografía de interés y también pueden usar sus propias fuentes de datos sobre la actividad en línea de las personas para realizar una orientación adicional para ciertos tipos de anuncios. Los ejemplos tampoco infringen ninguna regla de privacidad específica, aunque la política de Google prohíbe la orientación en función de las "condiciones de salud". Aún así, dice Anupam Datta, profesor asociado de la Universidad Carnegie Mellon que ayudó a desarrollar AdFisher, muestran la necesidad de herramientas que descubran cómo las empresas de publicidad en línea diferencian a las personas.
“Creo que nuestros hallazgos sugieren que hay partes del ecosistema publicitario donde comienzan a surgir tipos de discriminación y hay una falta de transparencia”, dice Datta. “Esto es preocupante desde un punto de vista social”. Los sistemas publicitarios como el de Google influyen en la información a la que las personas están expuestas y, potencialmente, incluso en las decisiones que toman, por lo que es importante comprender cómo esos sistemas usan los datos sobre nosotros, dice.
Incluso las empresas que ejecutan redes publicitarias en línea no tienen una buena idea de qué inferencias extraen sus sistemas sobre las personas y cómo se utilizan esas inferencias, dice Datta. Su grupo ha comenzado a colaborar con Microsoft para desarrollar una versión de AdFisher para usar dentro de la empresa, para buscar patrones potencialmente preocupantes en la orientación de anuncios en el motor de búsqueda Bing. Un documento de Datta y dos colegas, Michael Tschantz, del Instituto Internacional de Ciencias de la Computación, y Amit Datta, también de Carnegie Mellon, se presentó en el Simposio de Tecnologías de Mejora de la Privacidad en Filadelfia el jueves pasado.
Google no respondió oficialmente cuando los investigadores contactaron a la compañía sobre sus hallazgos a fines del año pasado, dicen. Sin embargo, este junio, el equipo notó que Google había agregado un descargo de responsabilidad a su página de configuración de anuncios. Ahora se dice que las categorías de interés que se muestran controlan solo "algunos de los anuncios de Google que ve", y no aquellos en los que terceros han hecho uso de sus propios datos. Datta dice que eso limita en gran medida la utilidad de la herramienta de transparencia de Google, que probablemente podría revelar dicha información si la empresa así lo desea. “Están publicando estos anuncios y, si quisieran, podrían reflejar estos intereses”, dice.
“Los anunciantes pueden elegir dirigirse a la audiencia a la que quieren llegar, y tenemos políticas que guían el tipo de anuncios basados en intereses que están permitidos”, dijo Andrea Faville, vocera de Google, en un correo electrónico. "Brindamos transparencia a los usuarios con avisos de 'Por qué este anuncio' y Configuración de anuncios, así como la capacidad de optar por no recibir anuncios basados en intereses". Google está analizando la metodología del estudio para tratar de comprender sus hallazgos.
La herramienta AdFisher funciona mediante el envío de cientos o miles de navegadores web automatizados en senderos cuidadosamente elegidos a través de la Web de tal manera que una red de orientación de anuncios inferirá ciertos intereses o actividades. Luego, el software registra qué anuncios se muestran cuando cada navegador automatizado visita un sitio web de noticias que utiliza la red publicitaria de Google, así como cualquier cambio en la página de configuración de anuncios. En algunos experimentos, esa página se edita para buscar diferencias entre las formas en que los anuncios están dirigidos a, por ejemplo, hombres y mujeres. AdFisher marca automáticamente cualquier diferencia estadísticamente significativa en la forma en que se orientan los anuncios utilizando las categorías de intereses particulares o los datos demográficos que está investigando.
Roxana Geambasu, profesora asistente en la Universidad de Columbia, dice que hay un valor considerable en la forma en que AdFisher puede extraer patrones estadísticamente de la complejidad de los anuncios dirigidos. Una herramienta llamada XRay, que su propio grupo de investigación lanzó el año pasado, puede aplicar ingeniería inversa a la conexión entre los anuncios que se muestran a los usuarios de Gmail y las palabras clave en sus mensajes. Por ejemplo, los anuncios de préstamos para automóviles de bajo requisito pueden estar dirigidos a aquellos que usan palabras asociadas con dificultades financieras.
Sin embargo, Geambasu dice que los resultados de XRay y AdFisher siguen siendo solo sugerentes. “No se pueden sacar grandes conclusiones, porque no hemos estudiado mucho esto y estos ejemplos podrían ser raras excepciones”, dice ella. “Lo que necesitamos ahora es infraestructura y herramientas para estudiar estos sistemas a una escala mucho mayor”. Poder observar cómo los algoritmos apuntan y rastrean a las personas para hacer cosas como publicar anuncios o ajustar el precio de los seguros y otros productos probablemente sea vital si los grupos de derechos civiles y los reguladores quieren seguir el ritmo de los desarrollos en la forma en que las empresas usan los datos, dice. .
Un informe de la Casa Blanca sobre el impacto de los "grandes datos" el año pasado llegó a conclusiones similares. “El análisis de datos tiene el potencial de eclipsar las protecciones de los derechos civiles de larga data en la forma en que se utiliza la información personal en la vivienda, el crédito, el empleo, la salud, la educación y el mercado”, dijo.