Incidents associés
75 % de la superficie de la capitale argentine est sous surveillance vidéo, ce que le gouvernement affiche fièrement sur des panneaux d'affichage. Mais le système de reconnaissance faciale, qui fait partie de l'immense infrastructure de surveillance de la ville, est critiqué après qu'au moins 140 autres erreurs de base de données ont conduit à des contrôles de police ou à des arrestations après sa mise en service en 2019. Les autorités ont désactivé la fonction de reconnaissance faciale pendant la pandémie de COVID-19 en 2020, et elle est restée désactivée en raison de mesures de précaution prises par le pouvoir judiciaire. La ville de Buenos Aires est désormais engagée dans une bataille juridique pour qu'elle soit réactivée.
Dès le début de l'enquête, nous avons examiné la question de la vie privée par rapport à la sécurité, ainsi que la réglementation de l'IA et les schémas racistes déjà connus dans la reconnaissance faciale avec l'aide de l'IA. L'Amérique du Sud est un continent aux prises avec des problèmes de sécurité. Dans ce contexte, un nombre croissant de décideurs politiques se tournent vers l'intelligence artificielle pour lutter contre la criminalité et la prévenir. L'utilisation de l'IA dans les espaces publics, comme la technologie de reconnaissance faciale, reçoit relativement peu de couverture médiatique. Ce qui suscite des débats houleux en Europe et aux États-Unis, de nombreux Sud-Américains l'acceptent en silence.
Nous avons commencé nos recherches en rencontrant des victimes d'erreurs de base de données qui avaient été arrêtées par erreur par la police utilisant la reconnaissance faciale avec l'IA à Buenos Aires. Mais au même moment, un juge a enquêté et a découvert que la reconnaissance faciale avait peut-être été utilisée à mauvais escient à des fins de surveillance et de big data. Lorsque nous avons découvert cela, notre histoire a pris une autre tournure. La voici : la ville de Buenos Aires s'appuie sur la reconnaissance faciale pour la sécurité publique. Mais les enquêtes judiciaires montrent que le système a été falsifié - et peut-être utilisé à des fins de surveillance.
La reconnaissance faciale dans les espaces publics est réglementée en Europe. Mais à Buenos Aires, c'est une réalité. Nous avons voulu aller au fond des choses et nous sommes penchés sur les questions éthiques, les questions de transparence, les options réglementaires, les erreurs du système et la protection des données. Lorsque les recherches judiciaires ont révélé que le système avait peut-être été abusé, il était clair que c'était notre histoire. C'est aussi ce que l'histoire a révélé : les systèmes ne sont pas parfaits. Et quand il n'y a pas de contrôle, des systèmes comme la reconnaissance faciale peuvent être très facilement détournés.
Ce que l'enquête a révélé
« Un cauchemar », c'est ainsi que Guillermo Federico Ibarrola décrit son arrestation. Les caméras du système de reconnaissance faciale de Buenos Aires l'avaient identifié comme un criminel. Mais un autre Guillermo Ibarrola avait commis le vol en question, dans une ville située à 600 kilomètres de là. Il a dû passer cinq jours en prison, jusqu'à ce qu'il soit finalement libéré avec un café à emporter, un ticket de bus pour rentrer chez lui et, oui, ses lacets. Cela s'est passé en 2019. Nous ne connaissons toujours pas les taux de reconnaissance des caméras, comment le logiciel a été acquis, qui le gère, sous quelles normes ou mécanismes de contrôle, ni combien de temps et où les données récoltées sont stockées.
Nous avons cherché et trouvé non seulement Guillermo Ibarrola, mais aussi d'autres victimes en examinant les reportages des médias et les tweets sur les faux positifs, et en contactant des avocats et le bureau du médiateur de la ville de Buenos Aires. Le cas de Guillermo était particulièrement difficile, car il a passé six nuits en cellule.
La ville de Buenos Aires mise sur la reconnaissance faciale. Quelques mois après l'installation du système en 2019, le gouvernement a annoncé que près de 1 700 criminels recherchés avaient été arrêtés. Mais des militants de la protection des données ont intenté un procès contre la ville : 140 personnes innocentes avaient également été arrêtées par la police parce que le système les avait reconnues comme des criminels recherchés. Les spécialistes informatiques qui ont fouillé les serveurs du ministère de la Sécurité sur ordre du tribunal sont arrivés à une suspicion scandaleuse : la reconnaissance faciale a-t-elle été utilisée pour créer une base de données Big Data ou même pour surveiller des individus ?
Dans notre histoire, les principaux acteurs impliqués ont leur mot à dire : un homme qui a passé six jours en cellule en raison d'une erreur de base de données. Le ministre de la Sécurité, qui considère le système indispensable à la sécurité des citoyens de Buenos Aires. Le juge qui a ordonné l'enquête sur le système a trouvé des preuves de diverses irrégularités et a tiré des conclusions alarmantes.
Nous avons pu accéder au rapport sensible issu de cette enquête judiciaire. Les conversations confidentielles sur le contexte ont été particulièrement importantes pour améliorer la compréhension du rapport, qui était en partie très technique, et aussi pour assurer la crédibilité de cet important document dans un pays politiquement polarisé. Un avantage dans ce cas : le rapport a été produit et signé par deux corps de police différents. La police de la ville dépend du gouvernement de Buenos Aires, la police de l'aéroport du gouvernement national, qui étaient des opposants politiques au moment de la recherche.
Approche visuelle : photographie documentaire + interventions artistiques
La singularité de ce projet réside dans le fait que nous avons travaillé en équipe, composée d'une journaliste (Karen Naundorf) et d'une photographe (Sarah Pabst). Les reportages médiatiques en général, et l'imagerie en particulier, traversent actuellement une crise de crédibilité. Les fausses nouvelles et, en fin de compte, les images générées par l'IA ont contribué à accroître la méfiance. Les travaux documentaires d’auteurs et de photographes professionnels, dont les noms sont également synonymes d’authenticité du texte et des images, contribuent à améliorer la transparence et la crédibilité.
Nous avons compris dès le début l’importance de travailler en équipe : nous réfléchissons et faisons des recherches ensemble, nous nous apportons mutuellement nos contributions lors des entretiens et des photos, et nous suivons les conversations. Par conséquent, les résultats finaux sont meilleurs et plus complets, ce qui augmente la portée de notre histoire : les magazines accordent plus d’espace aux histoires non seulement lorsqu’elles sont bien documentées, mais aussi lorsque le texte interagit bien avec des images de premier ordre.
Il existe de nombreuses preuves scientifiques de l’importance des visuels : 90 % des informations transmises à notre cerveau humain sont visuelles, et il peut traiter les visuels 60 000 fois plus vite que le texte. Les images persistent également plus longtemps dans la mémoire que les mots écrits. Pourtant, les articles sur l’IA comportent rarement de nombreuses photographies, et la plupart du temps, ils utilisent les mêmes illustrations. Dans un domaine aussi abstrait et technique que l’IA, les visuels deviennent particulièrement importants pour faciliter l’accès à un plus large éventail de personnes. Nous travaillons en équipe depuis des années maintenant et savons à quel point nous nous enrichissons mutuellement dans nos projets. Ainsi, alors que le texte transmet toutes les informations importantes, les histoires personnelles et les résultats des enquêtes, les images, qu'elles soient documentaires ou d'intervention, contribuent à rapprocher ces résultats des lecteurs.
L'objectif de nos reportages sur l'IA est toujours de montrer l'impact sur les communautés, c'est-à-dire sur les humains. C'est pourquoi la photographie documentaire classique n'est pas obsolète. Au contraire, elle constitue une partie importante du travail photographique, car elle montre des personnes réelles. Les interventions artistiques illustrent en même temps visuellement ce qui est caché et difficile à documenter : l'IA, les algorithmes et les effets sur nous. Grâce à cette combinaison de photographie documentaire et d'intervention artistique, les visuels mettent en lumière quelque chose d'aussi difficile à comprendre que l'IA.
L'IA est omniprésente, mais en même temps abstraite, difficile à saisir et la plupart du temps invisible. L'intervention artistique vise à visualiser cet invisible : de petites lignes sur les photos montrent les portées des caméras installées, des collages numériques reproduisent la fonction des logiciels sur les caméras, de petits trous dans les images et photographiés à travers la lumière éclairent de manière artistique mais représentent en même temps la violation de la vie privée et la façon dont nos vies sont perturbées par les algorithmes.
Les points à photographier ont suivi une approche strictement documentaire : des portraits où les victimes Guillermo et Leo ont été capturées par les caméras, des politiciens et des juges dans leurs bureaux, des avocats à la maison et au travail. Les interventions que nous avons faites sur ces images documentaires mettent en évidence le fonctionnement des caméras et leur portée, le manque d'informations derrière les portraits, la façon dont les logiciels des caméras marquent une personne, la distorsion numérique qui montre à quel point on peut être choisi au hasard comme un faux positif, et comment nous sommes tous affectés par l'IA. Nous sommes également intervenus sur des autoportraits après avoir découvert que nos données biométriques étaient également utilisées à des fins de surveillance.
Défis et leçons apprises
Les défis auxquels nous avons été confrontés étaient vastes :
- Nos interlocuteurs ont généralement des intérêts particuliers (les experts ont généralement une formation commerciale ou politique)
- Certaines questions restent simplement sans réponse (demandes « à l'écart », par exemple des questions sur les logiciels et les algorithmes)
- L'importance de ces questions est sous-estimée -- d'autres problèmes sont plus pressants, même pour les interlocuteurs potentiels
- Même les victimes n'étaient pas intéressées à parler -- le contexte politique était trop important et personne ne voulait s'en prendre à la ville de Buenos Aires
- La polarisation politique limite le choix des interlocuteurs et l'accès aux données
Lorsque nous avons commencé la recherche, l'objectif était d'aborder les conflits éthiques et de présenter les avantages et les inconvénients potentiels de la technologie. Cela nous a semblé particulièrement intéressant dans un contexte où il existe un réel problème de sécurité, sur un continent où une utilisation aussi massive de la technologie n'est pas attendue -- et à une époque où les tendances autoritaires gagnent du terrain dans de nombreux pays.
Cette idée s'est renforcée lorsque nous avons pris connaissance des recherches judiciaires du juge Gallardo : la question s'est soudainement posée de savoir si le système de reconnaissance faciale pouvait avoir été utilisé à des fins de surveillance ou de Big Data. Le projet a pris une seconde tournure lorsque nous avons découvert que nos propres données biométriques étaient également demandées par le ministère de la Sécurité.
La justice a d'abord refusé - pour des raisons compréhensibles - de nous donner accès aux enregistrements de données, car cela violerait les droits personnels de tiers. Il n'était donc possible de se renseigner que sur nos propres données personnelles. Nous avons donc commencé une enquête par voie judiciaire avec l'aide d'un avocat, au Tribunal contentieux, administratif et fiscal de la ville autonome de Buenos Aires, qui s'occupait à l'époque de l'affaire. Après plusieurs mois, nous avons d'abord reçu une réponse qui ne nous a pas aidés : le tribunal a confirmé que nous étions tous les deux dans la base de données, mais a affirmé ne pas avoir les compétences techniques pour donner la date et l'heure de la recherche.
Cependant, c'était précisément cette information (date et heure) que nous devions confronter au ministère de la Sécurité : pourquoi nos données ont-elles été récupérées ? Nous avons donc fait une deuxième demande, cette fois auprès d'un parquet spécialisé dans les affaires de corruption, qui s'occupe désormais également de cette question. Le parquet a non seulement confirmé que nos données personnelles avaient été demandées, mais il nous a également informés à l'heure et à la date des demandes.
La question suivante était : pourquoi la ville a-t-elle demandé nos données ? Nous avons d'abord essayé d'obtenir une réponse du ministère en contactant le service de presse. Comme nous n'avons reçu aucune réponse, nous avons déposé une demande FOIA. Cependant, la ville a refusé de répondre (décembre 2023), invoquant une procédure judiciaire en cours. Nous avons fait objection et attendons une nouvelle réponse.
Cela montre que les contraintes de temps peuvent être un défi. Toutes les informations que les autorités publiques ne veulent pas divulguer prennent des heures. Cela s'applique aux demandes concernant les algorithmes (certaines choses que vous n'obtenez jamais) ainsi qu'aux questions classiques des journalistes. Ce n'est qu'après presque un an que nous avons confirmé que nos données biométriques avaient été demandées par la ville de Buenos Aires.
Partout dans le monde, les législateurs se demandent : comment réglementer de manière adéquate la reconnaissance faciale ? Le cas de Buenos Aires montre clairement qu'une bonne législation ne suffit pas. Il faut des contrôles efficaces. Sinon, la reconnaissance faciale peut devenir un outil de surveillance dangereux.
Enfin, les histoires d'IA sont certainement plus difficiles à placer dans les médias que les histoires sur d'autres sujets, essentiellement pour la même raison qui rend la couverture de l'IA difficile : l'IA est difficile à comprendre pour les lecteurs et les rédacteurs en chef qui ne sont pas spécialisés dans les histoires technologiques. En outre, le continent latino-américain est confronté à des problèmes qui, à première vue, sont plus urgents et plus faciles à placer dans les magazines : crise économique, migration, pauvreté, criminalité, violence et corruption. L'IA, cependant, reproduit beaucoup de ces facteurs, mais les effets sont plus cachés à l'œil. Par conséquent, il est plus difficile de publier ces histoires pour un public plus large. Les histoires d'IA ont tendance à apparaître dans les sections technologiques, mais, surtout lorsqu'elles touchent à l'intérêt du public, cela peut être dommage : cela peut limiter le lectorat potentiel car les lecteurs non intéressés par la technologie risquent de ne pas voir l'histoire car ils ne cliquent tout simplement pas sur les articles de la section technologique. Mais nous savons que l'IA est présente depuis longtemps dans tous les domaines de la vie et continuera de l'être.