Incidentes Asociados
El setenta y cinco por ciento de la zona de la capital argentina está bajo videovigilancia, algo que el gobierno anuncia orgullosamente en vallas publicitarias. Pero el sistema de reconocimiento facial, parte de la extensa infraestructura de vigilancia de la ciudad, está siendo criticado después de que al menos otros 140 errores en la base de datos condujeron a controles policiales o arrestos después de que el sistema entró en funcionamiento en 2019. Los funcionarios desactivaron la función de reconocimiento facial durante la pandemia de COVID-19 en 2020, y ha permanecido apagada debido a medidas de precaución del poder judicial. La ciudad de Buenos Aires ahora está en una batalla legal para que se vuelva a activar.
Desde el comienzo de la investigación, consideramos la cuestión de la privacidad versus la seguridad, así como la regulación de la IA y los patrones racistas ya conocidos en el reconocimiento facial con la ayuda de la IA. América del Sur es un continente que lucha con problemas de seguridad. En este contexto, un número cada vez mayor de formuladores de políticas están recurriendo a la inteligencia artificial para combatir y prevenir el crimen. El uso de la IA en espacios públicos, como la tecnología de reconocimiento facial, recibe relativamente poca cobertura mediática. Lo que provoca acalorados debates en Europa y los EE. UU., muchos sudamericanos lo aceptan en silencio.
Comenzamos nuestra investigación reuniéndonos con víctimas de errores en las bases de datos que habían sido detenidas por error por la policía que usaba el reconocimiento facial con IA en Buenos Aires. Pero al mismo tiempo, un juez investigó y descubrió que el reconocimiento facial podría haber sido mal utilizado para fines de vigilancia y big data. Cuando nos enteramos de esto, nuestra historia dio un giro. Ahora era: la Ciudad de Buenos Aires depende del reconocimiento facial para la seguridad pública. Pero las investigaciones judiciales muestran que el sistema ha sido manipulado y posiblemente utilizado para vigilancia.
El reconocimiento facial en espacios públicos está regulado en Europa. Pero en Buenos Aires, es un hecho de la vida. Queríamos llegar al fondo del asunto y analizamos cuestiones éticas, cuestiones sobre la transparencia, opciones regulatorias, errores en el sistema y protección de datos. Cuando la investigación judicial reveló que el sistema podría haber sido abusado, quedó claro que esa era nuestra historia. Esto también es lo que la historia reveló: los sistemas no son perfectos. Y cuando no hay control, sistemas como el de reconocimiento facial pueden ser muy fácilmente abusados.
Lo que reveló la investigación
"Una pesadilla", así describe Guillermo Federico Ibarrola su detención. Las cámaras del sistema de reconocimiento facial de Buenos Aires lo habían identificado como un delincuente. Pero otro Guillermo Ibarrola había cometido el robo en cuestión, en una ciudad a 600 kilómetros de distancia. Tuvo que pasar cinco días en prisión, hasta que finalmente fue liberado con un café para llevar, un boleto de autobús para volver a casa y, sí, sus cordones. Esto sucedió en 2019. Todavía no sabemos los índices de reconocimiento de las cámaras, cómo se adquirió el software, quién lo ejecuta, bajo qué estándares o mecanismos de control, ni durante cuánto tiempo y dónde se almacenan los datos recolectados.
Buscamos y encontramos no solo a Guillermo Ibarrola, sino también a otras víctimas al ver informes de medios y tuits sobre falsos positivos, y al contactar a abogados y a la Defensoría del Pueblo de la Ciudad de Buenos Aires. El caso de Guillermo fue especialmente difícil porque pasó seis noches en una celda.
La ciudad de Buenos Aires depende del reconocimiento facial. Unos meses después de la instalación del sistema en 2019, el gobierno anunció que se había atrapado a casi 1.700 delincuentes buscados. Pero los activistas de la privacidad de datos demandaron a la ciudad: la policía también había detenido a 140 personas inocentes porque el sistema las reconoció como delincuentes buscados. Los especialistas en TI que buscaron en los servidores del Ministerio de Seguridad por orden judicial llegaron a una escandalosa sospecha: ¿se utilizó el reconocimiento facial para crear una base de datos de Big Data o incluso para monitorear a personas?
En nuestra historia, los principales actores involucrados dan su opinión: un hombre que pasó seis días en una celda debido a un error en la base de datos. El Ministro de Seguridad, que considera que el sistema es indispensable para la seguridad de los ciudadanos de Buenos Aires. El juez que ordenó la investigación del sistema encontró evidencia de varias irregularidades y sacó conclusiones alarmantes.
Pudimos acceder al informe sensible que resultó de esa investigación judicial. Las conversaciones confidenciales de fondo fueron particularmente importantes para mejorar la comprensión del informe, que en parte era muy técnico, y también para asegurar la credibilidad de este importante documento en un país políticamente polarizado. Una ventaja en este caso: el informe fue elaborado y firmado por dos cuerpos policiales diferentes. La policía de la ciudad reporta al gobierno de Buenos Aires, la policía aeroportuaria al gobierno nacional, opositores políticos en el momento de la investigación.
Enfoque visual: fotografía documental + intervenciones artísticas
La singularidad de este proyecto radica en el hecho de que trabajamos en equipo con una reportera (Karen Naundorf) y una fotógrafa (Sarah Pabst). Los informes de los medios en general, y las imágenes en particular, se encuentran actualmente en una crisis de credibilidad. Las noticias falsas y, en última instancia, las imágenes generadas por IA han contribuido al aumento de la desconfianza. El trabajo documental de autores y fotógrafos profesionales cuyos nombres también representan la autenticidad del texto y las imágenes ayuda a mejorar la transparencia y la credibilidad.
Sabíamos desde el principio la importancia de trabajar juntos como equipo: intercambiamos ideas e investigamos juntos, nos aportamos ideas durante las entrevistas y las fotos, y las conversaciones de seguimiento. Por lo tanto, los resultados finales son mejores y más completos, aumentando el alcance de nuestra historia: las revistas dan más espacio a las historias no solo cuando cuentan con una buena investigación, sino también cuando el texto interactúa bien con imágenes de primera clase.
Existe una amplia evidencia científica sobre la importancia de los elementos visuales: el 90% de la información transmitida a nuestro cerebro humano es visual, y puede procesar imágenes 60.000 veces más rápido que el texto. Las imágenes también persisten más tiempo en la memoria que las palabras escritas. Sin embargo, los artículos sobre IA rara vez incluyen fotografías extensas y la mayoría de las veces utilizan las mismas ilustraciones. En algo tan abstracto y técnico como la IA, los elementos visuales se vuelven especialmente importantes para un acceso más fácil a un espectro más amplio de personas. Llevamos años trabajando en equipo y sabemos cuánto nos potencializamos mutuamente en nuestros proyectos. Así, mientras el texto transmite toda la información importante, las historias personales y los resultados de las investigaciones, las imágenes, tanto documentales como de intervención, ayudan a acercar esos resultados a los lectores.
El objetivo de nuestros informes sobre IA es siempre mostrar el impacto en las comunidades, es decir, en los seres humanos. Es por eso que la fotografía documental clásica no está obsoleta. Al contrario, es una parte importante del trabajo fotográfico, ya que muestra a personas reales. Las intervenciones artísticas al mismo tiempo ilustran visualmente lo que está oculto y es difícil de documentar: la IA, los algoritmos y los efectos sobre nosotros. A través de esta combinación de fotografía documental e intervención artística, las imágenes arrojan luz sobre algo tan difícil de entender como la IA.
La IA es omnipresente, pero al mismo tiempo abstracta, difícil de comprender y en su mayoría invisible. La intervención artística pretende visualizar lo invisible: pequeñas líneas en las fotos muestran el alcance de las cámaras instaladas, collages digitales reproducen la función del software en las cámaras, pequeños agujeros en las imágenes y fotografiados a través de la luz arrojan luz artísticamente pero al mismo tiempo representan la violación de la privacidad y la forma en que nuestras vidas son intervenidas por algoritmos.
Los lugares a fotografiar siguieron un enfoque estrictamente documental: retratos donde las víctimas Guillermo y Leo habían sido captados por las cámaras, políticos y jueces en sus oficinas, abogados en casa y en el trabajo. Las intervenciones que hicimos en esas imágenes documentales resaltan aún más cómo funcionan las cámaras y su alcance, la falta de información detrás de los retratos, la forma en que el software de la cámara marca a una persona, la distorsión digital que muestra cómo al azar uno puede ser elegido como un falso positivo y cómo todos nos vemos afectados cuando se trata de IA. También intervenimos autorretratos después de descubrir que nuestros datos biométricos también se usaban para vigilancia.
Desafíos y lecciones aprendidas
Los desafíos que enfrentamos fueron amplios:
- Nuestros entrevistados suelen tener intereses particulares (los expertos suelen tener antecedentes comerciales o políticos)
- Algunas preguntas simplemente quedan sin respuesta (solicitudes de "no participar", por ejemplo, preguntas sobre software y algoritmos)
- Se subestima la importancia de estos temas; otros problemas son más urgentes, incluso para los entrevistados potenciales
- Ni siquiera las víctimas estaban interesadas en hablar; el contexto político era demasiado grande y nadie quería enfrentarse a la ciudad de Buenos Aires
- La polarización política limita la elección de entrevistados y el acceso a los datos
Cuando comenzamos la investigación, el objetivo era abordar los conflictos éticos y presentar los beneficios y los posibles daños de la tecnología. Esto nos pareció particularmente interesante en un contexto en el que existe un problema de seguridad real, en un continente en el que no se espera un uso tan masivo de la tecnología y en tiempos en los que las tendencias autoritarias están ganando espacio en muchos países.
Esta misma idea se reforzó cuando nos enteramos de la investigación judicial del juez Gallardo: de repente, surgió la pregunta de si el sistema de reconocimiento facial podría haber sido utilizado para vigilancia o Big Data. El proyecto dio un segundo giro cuando descubrimos que nuestros propios datos biométricos también fueron solicitados por el Ministerio de Seguridad.
La justicia inicialmente se negó, por razones comprensibles, a darnos acceso a los registros de datos, porque eso violaría los derechos personales de terceros. Por lo tanto, solo era posible solicitar nuestros propios datos personales. Entonces, iniciamos una investigación por la vía legal con la asistencia de un abogado, en el Tribunal Contencioso Administrativo y Tributario de la Ciudad Autónoma de Buenos Aires, que en ese momento estaba tratando el caso. Después de varios meses, recibimos una primera respuesta que no nos ayudó: el tribunal confirmó que ambos estábamos en la base de datos, pero afirmó no tener conocimientos técnicos para dar la fecha y hora de la búsqueda.
Sin embargo, era precisamente esta información (fecha y hora) la que necesitábamos para confrontar al Ministerio de Seguridad: ¿Por qué se recuperaron nuestros datos? EspañolPor eso, realizamos una segunda consulta, esta vez a una fiscalía especializada en casos de corrupción, que ahora también se ocupa de este tema. La fiscalía no solo confirmó el hecho de que se habían solicitado nuestros datos personales, sino que también nos informó sobre la fecha y hora de las solicitudes.
La siguiente pregunta fue: ¿Por qué la ciudad solicitó nuestros datos? Primero intentamos obtener una respuesta del Ministerio, contactando con la oficina de prensa. Como no recibimos ninguna respuesta, presentamos una solicitud de FOIA. Sin embargo, la ciudad se negó a responder (diciembre de 2023), citando procedimientos legales en curso. Hemos presentado una objeción y estamos esperando una nueva respuesta.
Esto demuestra que las limitaciones de tiempo pueden ser un desafío. Toda la información que las autoridades públicas no quieren dar lleva mucho tiempo. Esto se aplica a las solicitudes sobre algoritmos (algunas cosas nunca se obtienen) así como a las clásicas preguntas de los periodistas. Solo después de casi un año confirmamos que la ciudad de Buenos Aires había solicitado nuestros datos biométricos.
En todo el mundo, los legisladores se preguntan: ¿Cómo se puede regular adecuadamente el reconocimiento facial? El caso de Buenos Aires muestra claramente que una buena legislación no es suficiente. Se necesitan controles que funcionen. De lo contrario, el reconocimiento facial puede convertirse en una peligrosa herramienta de vigilancia.
Finalmente, las historias de IA son definitivamente más difíciles de colocar en los medios que las historias sobre otros temas, básicamente por la misma razón que dificulta la cobertura de la IA: la IA es difícil de entender para los lectores y para los editores que no están especializados en historias tecnológicas. Además, el continente latinoamericano enfrenta problemas que a primera vista son más urgentes y más fáciles de colocar en las revistas: crisis económica, migración, pobreza, crimen, violencia y corrupción. La IA, sin embargo, reproduce muchos de estos factores, pero los efectos están más ocultos a la vista. Por lo tanto, es un desafío mayor publicar esas historias para una audiencia más amplia. Las historias de IA tienden a aparecer en las secciones de tecnología, pero, especialmente cuando tocan el interés público, esto puede ser una pena: puede limitar el posible número de lectores, ya que los lectores no interesados en la tecnología podrían no ver la historia porque simplemente no hacen clic en los artículos de la sección de tecnología. Pero sabemos que la IA ha estado presente durante mucho tiempo en todas las áreas de la vida y seguirá estando.