Incidentes Asociados

Un líder del gobierno en Argentina elogió a la IA, que fue alimentada con datos invasivos sobre niñas. El retroceso feminista podría informar el futuro de la tecnología de la salud.
En 2018, mientras el Congreso argentino debatía acaloradamente si despenalizar el aborto, el Ministerio de la Primera Infancia de la norteña provincia de Salta y el gigante tecnológico estadounidense Microsoft presentaron un sistema algorítmico para predecir el embarazo adolescente. La llamaron Plataforma Tecnológica de Intervención Social.
“Con la tecnología se puede prever con cinco o seis años de anticipación, con nombre, apellido y dirección, qué niña —futura adolescente— está predestinada en un 86 por ciento a tener un embarazo adolescente”, dijo Juan Manuel Urtubey, entonces gobernador de la provincia. , declaró con orgullo en la televisión nacional. El objetivo declarado era utilizar el algoritmo para predecir qué niñas de áreas de bajos ingresos quedarían embarazadas en los próximos cinco años. Nunca se aclaró qué sucedería una vez que una niña o joven fuera etiquetada como “predestinada” a la maternidad ni cómo esta información ayudaría a prevenir el embarazo adolescente. Las teorías sociales que informaban el sistema de IA, como sus algoritmos, eran opacas.
El sistema se basó en datos—incluyendo edad, etnia, país de origen, discapacidad y si la casa del sujeto tenía agua caliente en el baño—de 200.000 residentes en la ciudad de Salta, incluidas 12.000 mujeres y niñas entre las edades de 10 y 19. Aunque no hay documentación oficial, de la revisión de artículos de prensa y dos revisiones técnicas, sabemos que "agentes territoriales" visitaron las casas de las niñas y mujeres en cuestión, realizaron encuestas, tomaron fotos y registraron ubicaciones de GPS. ¿Qué tenían en común los sujetos a esta vigilancia íntima? Eran pobres, algunos eran inmigrantes de Bolivia y otros países de América del Sur, y otros eran de comunidades indígenas wichí, qulla y guaraní.
Aunque voceros de Microsoft anunciaron con orgullo que la tecnología en Salta fue “uno de los casos pioneros en el uso de datos de IA” en programas estatales, presenta pocas novedades. En cambio, es una extensión de una larga tradición argentina: controlar a la población a través de la vigilancia y la fuerza. Y la reacción muestra cómo las feministas argentinas de base supieron asumir este mal uso de la inteligencia artificial.
En el siglo XIX y principios del XX, sucesivos gobiernos argentinos llevaron a cabo un genocidio de comunidades indígenas y promovieron políticas de inmigración basadas en ideologías diseñadas para atraer asentamientos europeos, todo con la esperanza de blanquismo o “blanquear” el país. Con el tiempo, se construyó una identidad nacional a lo largo de líneas sociales, culturales y, sobre todo, raciales.
Este tipo de pensamiento eugenésico tiene una propensión a cambiar de forma y adaptarse a nuevos paradigmas científicos y circunstancias políticas, según la historiadora Marisa Miranda, quien rastrea los intentos de Argentina por controlar a la población a través de la ciencia y la tecnología. Tomemos el caso de la inmigración. A lo largo de la historia argentina, la opinión ha oscilado entre celebrar la inmigración como un medio para “mejorar” la población y considerar a los inmigrantes como indeseables y una amenaza política que debe ser cuidadosamente vigilada y manejada.
Más recientemente, la dictadura militar argentina entre 1976 y 1983 controló a la población a través de la violencia política sistemática. Durante la dictadura, las mujeres tenían la “tarea patriótica” de poblar el país, y la anticoncepción fue prohibida por una ley de 1977. La expresión más cruel del interés de la dictadura por la maternidad fue la práctica del secuestro de mujeres embarazadas considerada políticamente subversiva. La mayoría de las mujeres fueron asesinadas después de dar a luz y muchos de sus hijos fueron adoptados ilegalmente por los militares para ser criados por “familias católicas patrióticas”.
Si bien el sistema de IA de Salta para “predecir el embarazo” fue aclamado como futurista, solo puede entenderse a la luz de esta larga historia, particularmente, en palabras de Miranda, el impulso eugenésico persistente que siempre “contiene una referencia al futuro” y asume que la reproducción “debería ser manejado por los poderosos”.
Debido a la falta total de regulación nacional de IA, la Plataforma Tecnológica para la Intervención Social nunca estuvo sujeta a una revisión formal y no se ha realizado ninguna evaluación de sus impactos en las niñas y mujeres. No se han publicado datos oficiales sobre su precisión o resultados. Como la mayoría de los sistemas de IA en todo el mundo, incluidos los que se utilizan en contextos sensibles, carece de transparencia y rendición de cuentas.
Aunque no está claro si el programa de tecnología finalmente se suspendió, todo lo que sabemos sobre el sistema proviene de los esfuerzos de activistas feministas y periodistas que lideraron lo que equivalió a una auditoría de base de un sistema de IA defectuoso y dañino. Al activar rápidamente una máquina bien engrasada de organización comunitaria, estos activistas atrajeron la atención de los medios nacionales sobre cómo se estaba utilizando una tecnología no probada y no regulada para violar los derechos de las niñas y las mujeres.
“La idea de que los algoritmos pueden predecir el embarazo adolescente antes de que suceda es la excusa perfecta para que los activistas en contra de las mujeres y los derechos sexuales y reproductivos declaren que las leyes sobre el aborto son innecesarias”, escribieron en ese momento las académicas feministas Paz Peña y Joana Varon. De hecho, pronto se reveló que una organización argentina sin fines de lucro llamada Fundación Conin, dirigida por el doctor Abel Albino, un opositor vocal del derecho al aborto, estaba detrás de la tecnología, junto con Microsoft.
“[El programa de tecnología] es un artilugio patriarcal”, dijo Ana Pérez Declercq, directora del Observatorio de Violencia contra la Mujer. “Confunde las variables socioeconómicas para que parezca que la niña o la mujer son las únicas culpables de su situación. Carece totalmente de cualquier preocupación por el contexto. Este sistema de IA es un ejemplo más de la violación de los derechos de las mujeres por parte del Estado. Imagínese lo difícil que sería negarse a participar en esta vigilancia”. Agregó que las familias dependen de la agencia patrocinadora del programa, el Ministerio de la Primera Infancia, para servicios como vacunas y leche gratis. En un país que terminó 2021 con la mitad de su población viviendo en la pobreza, este es un apoyo crucial que las niñas y mujeres vulnerables no pueden permitirse arriesgar al hablar.
El Laboratorio de Inteligencia Artificial Aplicada de la Universidad de Buenos Aires destacó los graves errores técnicos y de diseño de la plataforma y cuestionó las afirmaciones de los desarrolladores de que el modelo hizo "predicciones correctas el 98,2 por ciento de las veces". Las revisiones técnicas se basaron en información incompleta porque el sistema carecía de transparencia. Sin embargo, se reveló que la base de datos del sistema incluía datos étnicos y socioeconómicos, pero no incluía nada sobre el acceso a la educación sexual o la anticoncepción, que los esfuerzos de salud pública en todo el mundo reconocen como las herramientas más importantes para reducir las tasas de embarazo adolescente. “Los problemas metodológicos, como la falta de confiabilidad de los datos, plantean el riesgo de que los responsables políticos tomen medidas equivocadas”, dijo Diego Fernandez Slezak, director del laboratorio.
Si bien el plan de Salta para predecir el embarazo fue criticado públicamente por académicos y periodistas, las activistas feministas utilizaron esta atención de los medios para imponer una medida de responsabilidad pública, incluso frente a la falta total de regulación de la IA por parte del estado. Esta resistencia efectiva al sistema de IA fue posible porque las feministas argentinas ya habían construido un poderoso movimiento social.