Problema 2780

Cinco días después de que Rusia lanzara su invasión a gran escala de Ucrania, hace un año esta semana, la empresa de reconocimiento facial con sede en EE. UU. Clearview AI ofreció al gobierno ucraniano acceso gratuito a su tecnología, sugiriendo que podría usarse para reunir familias, identificar agentes rusos y luchar contra la desinformación. Poco después, el gobierno de Ucrania reveló que estaba usando la tecnolog ía para escanear los rostros de los soldados rusos muertos para identificar sus cuerpos y notificar a sus familias. Para diciembre de 2022, Mykhailo Fedorov, viceprimer ministro y ministro de transformación digital de Ucrania, estaba twitteando una foto de sí mismo con el director ejecutivo de Clearview AI, Hoan Ton-That, agradeciendo la empresa por su apoyo.
Dar cuenta de los muertos y hacer saber a las familias el destino de sus parientes es un [imperativo de derechos humanos](https://opiniojuris.org/2022/07/04/death-and-dignity-in-ukraines-armed-conflict-an -insight-into-the-protection-of-victims-remains-under-international-law-part-i/) escritas en tratados, protocolos y leyes internacionales como las [Convenciones de Ginebra] (https://ihl-databases. icrc.org/fr/customary-ihl/v2/rule116) y el Comité Internacional de la Cruz Roja (CICR) [Principios rectores para el manejo digno de los muertos] (https://shop.icrc.org/guiding-principles -para-el-manejo-digno-de-los-muertos-en-emergencias-humanitarias-y-para-prevenir-que-se-conviertan-en-personas-desaparecidas-pdf-en.html). También está vinculado a obligaciones mucho más profundas. El cuidado de los muertos es una de las prácticas humanas más antiguas, que nos humaniza, tanto como el lenguaje y la capacidad de autorreflexión. El historiador Thomas Laqueur, en su meditación épica, La obra de los muertos, escribe que “como Desde que la gente ha discutido el tema, el cuidado de los muertos se ha considerado fundamental: de la religión, de la política, del clan, de la tribu, de la capacidad de llorar, de la comprensión de la finitud de la vida, de la civilización misma”. Pero identificar a los muertos mediante la tecnología de reconocimiento facial utiliza el peso moral de este tipo de atención para autorizar una tecnología que plantea graves preocupaciones en materia de derechos humanos.
En Ucrania, la más sangrienta [guerra](https://www.ohchr.org /en/news/2023/01/ukraine-civilian-casualty-update-3-january-2023) en Europa desde la Segunda Guerra Mundial, el reconocimiento facial puede parecer una herramienta más para la sombría tarea de identificar a los caídos, junto con digitalización de registros de morgue, [laboratorios móviles de ADN](https://www .biometricupdate.com/202207/ukraine-gets-mobile-dna-biometrics-lab-from-france-to-id-war-dead), y [exhumación de fosas comunes](https://www.reuters.com/world /ucrania-completa-exhumación-soldados-lyman-mass-grave-2022-10-14/).
¿Pero funciona? Ton-That dice que la tecnología de su empresa "funciona de manera efectiva independientemente del daño facial que pueda haberle ocurrido a una persona fallecida". Hay poca investigación para respaldar esta afirmación, pero los autores de un pequeño estudio encontró resultados "prometedores ” incluso para rostros en estado de descomposición. Sin embargo, el antropólogo forense Luis Fondebrider, exjefe de los servicios forenses del CICR, que ha trabajado en zonas de conflicto en todo el mundo, pone en duda estas afirmaciones. “Esta tecnología carece de credibilidad científica”, dice. “No es absolutamente aceptado por la comunidad forense”. (La identificación de ADN sigue siendo el estándar de oro). El campo de la ciencia forense "comprende la tecnología y la importancia de los nuevos desarrollos", pero la prisa por usar el reconocimiento facial es "una combinación de política y negocios con muy poca ciencia", en opinión de Fondebrider. “No hay soluciones mágicas para la identificación”, dice.
El uso de una tecnología no probada para identificar a los soldados caídos podría conducir a errores y traumatizar a las familias. Pero incluso si el uso forense de la tecnología de reconocimiento facial estuviera respaldado por evidencia científica, no debería usarse para nombrar a los muertos. Es demasiado peligroso para los vivos.
Organizaciones incluidas Amnistía Internacional, la Electronic Frontier Foundation, el Proyecto de Supervisión de Tecnología de Vigilancia y el Proyecto de Defensa de Inmigrantes han declarado que la tecnología de reconocimiento facial es una forma de vigilancia masiva que amenaza la privacidad, amplifica la [vigilancia racista](https://sitn.hms.harvard. edu/flash/2020/racial-discrimination-in-face-recognition-technology/), amenaza el [derecho a protestar](https://www.theverge.com/2020/8/18/21373316/nypd-facial- recognition-black-lives-matter-activist-derrick-ingram), y puede conducir a arresto injustificado . Damini Satija, directora del Laboratorio de Responsabilidad Algorítmica de Amnistía Internacional y directora adjunta de Amnesty Tech, dice que la tecnología de reconocimiento facial socava los derechos humanos al "reproducir la discriminación estructural a gran escala". y automatizar y afianzar las desigualdades sociales existentes”. En Rusia, facial [reconocimiento](https://www .biometricupdate.com/202206/russia-uses-its-facial-recognition-system-to-show-reporters-whos-the-boss) [tecnología](https://www.article19.org/resources/russia-facial -reconocimiento-peligro-anonimato/) se está utilizando para sofocar la disidencia política. [No cumple con los estándares legales] (https://www.mctd.ac.uk/a-sociotechnical-audit-assessing-police-use-of-facial-recognition/) y [los estándares éticos] (https://www. .perpetuallineup.org/) cuando se usa para hacer cumplir la ley en el Reino Unido y los EE. -communities-senators-call-on-immigration-cops-and-fbi-to-dejar-de-usar-clearview-facial-recognition/?sh=27714db56d06) [contra](https://www.tandfonline.com/doi/ full/10.1080/23299460.2020.1831365) marginado comunidades [alrededor](https://www.codastory.com/authoritarian -tech/india-police-facial-recognition/) el mundo.
Clearview AI, que principalmente vende sus productos a la policía, tiene una de las bases de datos más grandes conocidas de fotos faciales, en 20 mil millones de imágenes, con planes para recolectar 100 mil millones de imágenes adicionales, equivalente a 14 fotos por cada persona en el planeta. La empresa ha prometido a los inversores que pronto "casi todas las personas del mundo serán identificables". Reguladores en Italia, Australia, Reino Unido y Francia declararon ilegal la base de datos de Clearview y ordenaron a la empresa que borrar las fotos de sus ciudadanos. En la UE, Reclaim Your Face, una coalición de más de 40 organizaciones de la sociedad civil, ha pedido una prohibición total de la tecnología de reconocimiento facial.
La investigadora de ética de IA Stephanie Hare dice que Ucrania está "utilizando una herramienta y promoviendo una empresa y un director ejecutivo, que no solo se han comportado de manera poco ética sino ilegal .” Ella conjetura que es un caso de "el fin justifica los medios", pero pregunta: "¿Por qué es tan importante que Ucrania pueda identificar a los soldados rusos muertos usando Clearview AI? ¿Cómo es esto esencial para defender Ucrania o ganar la guerra?”.
Creo que la respuesta a estas preguntas se puede encontrar en una [entrevista](https://techcrunch.com/2022/03/15/ukraines-mykhailo-fedorov-talks-about-corporate-sanctions-and-running-a- gobierno-durante-la-guerra/?guccounter=1) con Fedorov al principio de la guerra. Un periodista le preguntó: "¿Qué tipo de casos de uso tiene en mente al aprovechar Clearview AI?" Fedorov respondió: "Comenzaría diciendo que la mayoría de estos casos de uso no serían públicos, no sería algo que pudiéramos compartir públicamente. Pero algo de lo que puedo darles un adelanto sería... intentar para identificar a las fuerzas rusas que han sido asesinadas o tomadas prisioneras en Ucrania".
Esta entrevista y otros sugieren que la tecnología de Clearview AI se está utilizando para muchos propósitos en Ucrania , pero solo se discute públicamente su uso potencialmente positivo para identificar a los muertos. En otras palabras, se nos permite "un adelanto" que destaca una aplicación humanitaria mientras que los despliegues más controvertidos están ocultos a la vista. En un momento en que Clearview AI enfrenta acciones legales de los reguladores por su uso en la vigilancia, ha encontrado una manera de reinventarse como proveedor de tecnología humanitaria, al tiempo que amplía su alcance de la aplicación de la ley al ejército.
Debido a que la UE reconoce el reconocimiento facial como una "doble uso" tecnología con aplicaciones militares y civiles, su uso en la guerra para cualquier propósito, incluido la identificación de los muertos, debe estar sujeta a un estricto escrutinio y vigilancia. Y en el campo de batalla, el reconocimiento facial se puede usar para nombrar a los muertos, pero también se puede usar para apuntar a los vivos, por ejemplo, cuando se incorpora a [drones](https://www.forbes.com/sites/thomasbrewster/2021/ 15/02/drones-con-reconocimiento-facial-están-preparados-para-volar-pero-el-mundo-aún-no-está-listo/?sh=1878ccd93d9e) y [ametralladoras](https://www.youtube .com/watch?v=GFD_Cgr2zho) o se utiliza para desarrollar armas letales autónomas. Drones totalmente autónomos ya están desplegados en Ucrania y un [fabricante ruso](https://theconversation.com/war- in-ukraine-accelerates-global-drive-toward-killer-robots-198725) ha anunciado planes para desarrollar vehículos de combate de robots sin tripulación. Fedorov dijo recientemente que los drones asesinos totalmente autónomos son "un próximo paso lógico e inevitable" en el desarrollo de armas.
Satija de Amnistía Internacional dice que "los robots asesinos no son solo un sistema al estilo Terminator. Se trata de un sistema que puede seleccionar y atacar a un objetivo humano sin un control humano significativo y construido con tecnologías que acelerarán la violencia y la discriminación. Cuando pedimos regulación y las líneas rojas alrededor de las armas autónomas, también estamos hablando de los componentes de esos sistemas, como el reconocimiento facial, que por diseño violan los estándares internacionales de derechos humanos".
En última instancia, los rostros de los soldados muertos escaneados por Clearview AI silencian estas otras aplicaciones. La antropóloga Katherine Verdery, al escribir sobre [la vida política de los cadáveres](https://cup.columbia.edu/book/the- Political-lives-of-dead-bodies/9780231112314), muestra cómo los cadáveres son mudos y mutables: "símbolos ambiguos y proteicos" que pueden tener muchos usos políticos. En nombre de los muertos, se da al reconocimiento facial un pretexto humanitario que oscurece su papel en la vigilancia masiva emergente y la futura violencia automatizada.