Incidents associés

Un chef du gouvernement argentin a salué l'IA, qui a été alimentée par des données envahissantes sur les filles. Le recul féministe pourrait éclairer l'avenir des technologies de la santé.
En 2018, alors que le Congrès argentin débattait vivement de l'opportunité de dépénaliser l'avortement, le ministère de la Petite enfance de la province septentrionale de Salta et le géant américain de la technologie Microsoft ont présenté un système algorithmique pour prédire la grossesse chez les adolescentes. Ils l'ont appelée la plate-forme technologique d'intervention sociale.
"Avec la technologie, vous pouvez prévoir cinq ou six ans à l'avance, avec prénom, nom et adresse, quelle fille - future adolescente - est prédestinée à 86 % à avoir une grossesse d'adolescente", Juan Manuel Urtubey, alors gouverneur de la province. , a fièrement déclaré à la télévision nationale. L'objectif déclaré était d'utiliser l'algorithme pour prédire quelles filles des zones à faible revenu tomberaient enceintes au cours des cinq prochaines années. Il n'a jamais été précisé ce qui se passerait une fois qu'une fille ou une jeune femme serait étiquetée comme «prédestinée» à la maternité ou comment cette information aiderait à prévenir une grossesse chez les adolescentes. Les théories sociales informant le système d'IA, comme ses algorithmes, étaient opaques.
Le système était basé sur des données - y compris l'âge, l'origine ethnique, le pays d'origine, le handicap et si la maison du sujet avait de l'eau chaude dans la salle de bain - de 200 000 habitants de la ville de Salta, dont 12 000 femmes et filles âgées de 10 à 19. Bien qu'il n'y ait pas de documentation officielle, d'après l'examen d'articles de presse et de deux revues techniques, nous savons que des "agents territoriaux" ont visité les maisons des filles et des femmes en question, posé des questions d'enquête, pris des photos et enregistré des positions GPS. Quel est le point commun entre les personnes soumises à cette surveillance intime ? Ils étaient pauvres, certains étaient des migrants de Bolivie et d'autres pays d'Amérique du Sud, et d'autres appartenaient aux communautés autochtones Wichí, Qulla et Guaraní.
Bien que les porte-parole de Microsoft aient fièrement annoncé que la technologie de Salta était «l'un des cas pionniers dans l'utilisation des données d'IA» dans les programmes d'État, elle présente peu de nouveautés. Il s'agit plutôt d'une extension d'une longue tradition argentine : contrôler la population par la surveillance et la force. Et la réaction à cela montre comment les féministes argentines de base ont pu s'attaquer à cette mauvaise utilisation de l'intelligence artificielle.
Au XIXe et au début du XXe siècle, les gouvernements argentins successifs ont perpétré un génocide des communautés autochtones et promu des politiques d'immigration fondées sur des idéologies conçues pour attirer les Européens, le tout dans l'espoir de blanquismo ou de « blanchiment » du pays. Au fil du temps, une identité nationale s'est construite selon des critères sociaux, culturels et surtout raciaux.
Ce type de pensée eugénique a une propension à changer de forme et à s'adapter aux nouveaux paradigmes scientifiques et circonstances politiques, selon l'historienne Marisa Miranda, qui suit les tentatives de l'Argentine de contrôler la population par la science et la technologie. Prenons le cas de l'immigration. Tout au long de l'histoire de l'Argentine, l'opinion a oscillé entre la célébration de l'immigration comme un moyen «d'améliorer» la population et la considération des immigrés comme indésirables et comme une menace politique à surveiller et à gérer avec soin.
Plus récemment, la dictature militaire argentine entre 1976 et 1983 a contrôlé la population par une violence politique systématique. Pendant la dictature, les femmes avaient la « tâche patriotique » de peupler le pays, et la contraception était interdite par une loi de 1977. L'expression la plus cruelle de l'intérêt de la dictature pour la maternité a été la pratique d'enlèvement de femmes enceintes considérée comme politiquement subversive. La plupart des femmes ont été assassinées après avoir accouché et nombre de leurs enfants ont été adoptés illégalement par l'armée pour être élevés par des « familles patriotes et catholiques ».
Alors que le système d'IA de Salta pour « prédire la grossesse » a été salué comme futuriste, il ne peut être compris qu'à la lumière de cette longue histoire, en particulier, selon les mots de Miranda, l'impulsion eugénique persistante qui « contient toujours une référence au futur » et suppose que la reproduction "devrait être géré par les puissants."
En raison de l'absence totale de réglementation nationale sur l'IA, la plate-forme technologique d'intervention sociale n'a jamais fait l'objet d'un examen formel et aucune évaluation de ses impacts sur les filles et les femmes n'a été réalisée. Aucune donnée officielle n'a été publiée sur son exactitude ou ses résultats. Comme la plupart des systèmes d'IA dans le monde, y compris ceux utilisés dans des contextes sensibles, il manque de transparence et de responsabilité.
Bien qu'il ne soit pas clair si le programme technologique a finalement été suspendu, tout ce que nous savons sur le système provient des efforts des militantes féministes et des journalistes qui ont mené ce qui équivalait à un audit de base d'un système d'IA défectueux et nuisible. En activant rapidement une machine bien huilée d'organisation communautaire, ces militantes ont attiré l'attention des médias nationaux sur la façon dont une technologie non testée et non réglementée était utilisée pour violer les droits des filles et des femmes.
"L'idée que les algorithmes peuvent prédire la grossesse chez les adolescentes avant qu'elle ne se produise est l'excuse parfaite pour les militants anti-femmes et anti-droits sexuels et reproductifs pour déclarer les lois sur l'avortement inutiles", écrivaient à l'époque les universitaires féministes Paz Peña et Joana Varon. En effet, il a été rapidement révélé qu'une organisation à but non lucratif argentine appelée la Fondation Conin, dirigée par le docteur Abel Albino, un ardent opposant au droit à l'avortement, était à l'origine de la technologie, avec Microsoft.
« [Le programme technologique] est un artifice patriarcal », a déclaré Ana Pérez Declercq, directrice de l'Observatoire des violences faites aux femmes. « Cela confond les variables socio-économiques pour donner l'impression que la fille ou la femme est seule responsable de sa situation. Il est totalement dépourvu de tout souci de contexte. Ce système d'IA est un exemple de plus de la violation par l'État des droits des femmes. Imaginez à quel point il serait difficile de refuser de participer à cette surveillance. Elle a ajouté que les familles dépendent de l'agence de parrainage du programme, le ministère de la Petite enfance, pour des services tels que les vaccinations et le lait gratuit. Dans un pays qui a terminé 2021 avec la moitié de sa population vivant dans la pauvreté, il s'agit d'un soutien crucial que les filles et les femmes vulnérables ne peuvent pas se permettre de risquer en s'exprimant.
Le laboratoire d'intelligence artificielle appliquée de l'Université de Buenos Aires a mis en évidence les graves erreurs techniques et de conception de la plate-forme et a contesté les affirmations des développeurs selon lesquelles le modèle faisait "des prédictions correctes 98,2 % du temps". Les examens techniques reposaient sur des informations incomplètes car le système manquait de transparence. Néanmoins, il a été révélé que la base de données du système comprenait des données ethniques et socio-économiques, mais ne comprenait rien sur l'accès à l'éducation sexuelle ou à la contraception, que les efforts de santé publique dans le monde entier reconnaissent comme les outils les plus importants pour réduire les taux de grossesse chez les adolescentes. "Des problèmes méthodologiques tels que le manque de fiabilité des données font courir le risque que les décideurs politiques prennent des mesures erronées", a déclaré Diego Fernandez Slezak, directeur du laboratoire.
Alors que le plan de Salta pour prédire la grossesse a été publiquement critiqué par des universitaires et des journalistes, les militantes féministes ont utilisé cette attention médiatique pour imposer une mesure de responsabilité publique, même face à une absence totale de réglementation de l'IA par l'État. Cette résistance efficace au système d'IA a été possible parce que les féministes argentines avaient déjà construit un puissant mouvement social.