Incidentes Asociados

Informar sobre decisiones financieras a gran escala es difícil para cualquier periodista, pero un equipo de reporteros de investigación alemanes ha colaborado en una importante historia de investigación que revela fallas en un algoritmo de calificación crediticia celosamente guardado.
La mayoría de los ciudadanos en Alemania tienen un puntaje Schufa, que es algo así como el puntaje FICO en los EE. UU. Varios fragmentos de datos del consumidor se someten a un algoritmo patentado y dan como resultado una puntuación de evaluación de riesgos que indica la solvencia crediticia. Los puntajes se utilizan para informar decisiones financieras en todo tipo de contextos: desde banca y seguros hasta alquileres de bienes raíces y otros contratos de servicios. Pero no tienes que buscar mucho para [encontrar grietas](https://www.spiegel.de/wirtschaft/service/schufa-wie-ich-zum-deutlich-erhoehten-risiko-wurde-a-1193506. html) en la precisión de las puntuaciones. Los informes anecdóticos de puntajes discrepantes, así como la falta general de transparencia y explicación sobre cómo funciona el sistema patentado, plantean preguntas.
A fines de noviembre pasado, Der Spiegel publicó los resultados de una investigación de casi un año sobre Schufa. -1239214.html) y la [Emisora pública bávara] (https://www.br.de/nachrichten/wirtschaft/schufa-score-wie-menschen-unverschuldet-zum-risikofall-werden,RAheWGP). La investigación es un ejemplo de [informes algorítmicos de responsabilidad] (https://www.nickdiakopoulos.com/wp-content/uploads/2011/07/Algorithmic-Accountability-Reporting_final.pdf): un intento de descubrir el poder que ejercen los algoritmos sistemas de toma de decisiones y arrojar luz sobre sus sesgos, errores o mal uso. La rendición de cuentas algorítmica implica comprender cómo y cuándo las personas ejercen el poder dentro y a través de un sistema algorítmico, y en nombre de quién. Algunos medios están introduciendo una cobertura que equivale a un [algorithms beat] emergente(https://datajournalismhandbook.net/handbook/two/investigating-data-platforms-and-algorithms/the-algorithms-beat-angles-and-methods-for -investigación), orientado a la ingeniería inversa, la auditoría y, de otro modo, la crítica de los algoritmos en la sociedad.
Hablé con el periodista de datos Patrick Stotz en Der Spiegel sobre el [proceso] de su equipo (https://www.spiegel.de/wirtschaft/service/blackbox-schufa-2800-verbraucher-spendeten-ihre-selbstauskunft-a-1240703.html ) para obtener la historia. Dos organizaciones sin fines de lucro, Open Knowledge Foundation y Algorithm Watch, inicialmente se asociaron para recopilar datos. Obtuvieron miles de informes crediticios personales de los consumidores, que luego fueron transmitidos y analizados en masa por periodistas de investigación.
Los periodistas encontraron que los puntajes de Schufa privilegian a las personas mayores y mujeres, así como a las personas que cambian de dirección con menos frecuencia. El análisis también reveló que desde 1997 (cuando se implementó por primera vez la puntuación Schufa), ha habido cuatro versiones del algoritmo de puntuación. Algunas personas inexplicablemente recibieron puntajes más bajos con versiones más nuevas.
Crowdsourcing, datos y consecuencias no deseadas
Inicialmente, dice Stotz, uno de los aspectos más desafiantes fue obtener todos los informes de colaboración colectiva en un formato estructurado uniforme para el análisis. Los consumidores reciben sus informes gratuitos impresos en papel por correo y luego tienen que digitalizar los documentos ellos mismos (normalmente tomando una foto en su teléfono) para cargarlos en la base de datos. Una vez cargados, los periodistas de datos utilizaron el reconocimiento óptico de caracteres (OCR) para extraer información de texto de los formularios.
Todo el proceso es ineficiente: de las 30.000 personas que solicitaron su informe Schufa gratuito (que tarda varias semanas en llegar por correo) solo alrededor del 10 por ciento finalmente subió el formulario. La brecha entre lo impreso y lo digital crea un obstáculo importante para este tipo de periodismo de investigación. (Esa dificultad debería disminuir a medida que los proveedores de datos entren en cumplimiento tardío con el Reglamento General de Protección de Datos [ GDPR], que requiere que la información solicitada por medios electrónicos “se proporcione en un formato electrónico de uso común”).
Un desafío adicional para el proceso de digitalización fue que ningún mecanismo recordó a ninguna de esas 30 000 personas iniciales que regresaran después de haber recibido el informe. Debido a la preocupación por la protección de datos y el deseo de mantener el anonimato, Open Schufa no recopiló los correos electrónicos de los participantes. En retrospectiva, Stotz dice que podría haber sido mejor hacer que las notificaciones por correo electrónico fueran opcionales y permitir que los participantes interesados optaran por compartir información de contacto. Eso también habría creado un canal para informes adicionales sobre los casos más interesantes.
Los reporteros también descubrieron que, en lugar de ampliar el acceso de los consumidores a la información, GDPR puede haber aumentado la fricción en la recopilación de datos de colaboración colectiva. Después de que la ley entró en vigencia en mayo pasado, los investigadores notaron que en realidad hubo una reducción en la información proporcionada a los consumidores en sus informes de crédito gratuitos. A los nuevos informes les faltaban, por ejemplo, múltiples puntajes para diferentes versiones del algoritmo Schufa, puntajes que terminaron siendo una parte vital del proyecto de Der Spiegel. (Si Schufa está interpretando el RGPD adecuadamente al proporcionar menos información sobre los informes crediticios sin proporcionar los informes digitalmente, merece atención adicional).
¿Ahora que?
El uso continuo de diferentes versiones de puntajes de Schufa es uno de los hallazgos más convincentes expuestos a través de la investigación. A diferencia de la lenta evolución de la naturaleza, los algoritmos pueden actualizarse siempre que las personas que los controlan lo consideren prudente. La naturaleza caprichosa de las actualizaciones de los algoritmos sugiere una interesante línea de cuestionamiento para los defensores de la responsabilidad algorítmica: ¿cuándo y por qué los algoritmos cambian de versión? ¿Se debe suponer que las versiones anteriores son inferiores y se retiran? Si algunas partes interesadas todavía usan versiones anteriores (inferiores), ¿deberían ser responsables por el mal uso de las puntuaciones?
Los periodistas deben estar cada vez más en sintonía con la edad de los algoritmos que están investigando. Cuándo se crearon y con qué frecuencia se cambian pueden ser pertinentes para su uso continuo, especialmente a la luz de los contextos sociales en evolución y la disponibilidad de nuevos datos: la infraestructura algorítmica construida hoy podría repercutir en la sociedad durante décadas. En este ejemplo, la empresa Schufa decidió que la versión 1 de la partitura debería retirarse en junio de 2018, y la versión 2 debería retirarse en junio de 2019. Pero tal vez debería considerarse algún tipo de regulación sobre el control de versiones de algoritmos para formalizar las expectativas sobre el retiro de Versiones más antiguas, presumiblemente obsoletas.
Queda por ver si será necesaria otra investigación de Schufa la próxima vez que introduzca un nuevo marcador. La [respuesta política] inicial (https://www.spiegel.de/wirtschaft/service/schufa-co-barley-fordert-mehr-transparenz-von-auskunfteien-a-1241107.html) a la investigación del Ministro de de Protección al Consumidor de Alemania ha pedido más transparencia en torno a las variables utilizadas en la puntuación y cómo se ponderan. Si se exige una mayor transparencia a través de nuevas regulaciones, el camino a seguir podría no ser auditorías adicionales, sino centrar la atención periodística en monitorear la información proporcionada en los informes de transparencia.