Incidentes Asociados
Cientos de estadounidenses han sido arrestados después de que se los relacionara con un crimen mediante un software de reconocimiento facial, según ha descubierto una investigación del Washington Post, pero muchos nunca lo saben porque la policía rara vez revela el uso que hace de esta controvertida tecnología. Los departamentos de policía de 15 estados proporcionaron al Post registros raramente vistos que documentan su uso del reconocimiento facial en más de 1.000 investigaciones criminales en los últimos cuatro años. Según los informes de arresto en esos casos y las entrevistas con las personas que fueron arrestadas, las autoridades sistemáticamente no informaban a los acusados sobre su uso del software, negándoles la oportunidad de impugnar los resultados de una tecnología emergente que es propensa a errores, especialmente cuando se trata de identificar a personas de color. De hecho, los registros muestran que los agentes a menudo ocultaban su confianza en el software en los informes públicos, diciendo que identificaban a los sospechosos "a través de medios de investigación" o que una fuente humana, como un testigo o un agente de policía, hizo la identificación inicial. En Evansville, Indiana, por ejemplo, la policía dijo que identificaron a un hombre que golpeó a un extraño en la calle por sus brazos tatuados, su pelo largo y sus fotos de arrestos previos en la cárcel. Y en Pflugerville, Texas, la policía dijo que conocieron el nombre de un hombre que ayudó a robar 12.500 dólares en mercancía de Ulta Beauty "mediante la utilización de bases de datos de investigación". Ambos sospechosos fueron identificados con la ayuda del reconocimiento facial, según los registros policiales internos, información que nunca fue compartida con los acusados, según ellos o sus abogados. Una portavoz de Pflugerville se negó a responder preguntas sobre este caso. La policía de Evansville no respondió a las solicitudes de comentarios. El Post solicitó registros de más de 100 departamentos de policía que han reconocido públicamente el uso del reconocimiento facial; solo 30 proporcionaron registros de arrestos de casos en los que utilizaron el software. La mayoría se negó a responder preguntas sobre su uso de la tecnología. Algunos dijeron que lo usan para identificar pistas potenciales, pero nunca hacen un arresto basándose únicamente en una coincidencia de computadora, por lo que no están obligados a revelarlo a las personas arrestadas. El Departamento de Policía de Coral Springs en el sur de Florida instruye a los oficiales a no revelar el uso del reconocimiento facial en informes escritos, según el subdirector de operaciones Ryan Gallagher. Dijo que las técnicas de investigación están exentas de las leyes de divulgación pública de Florida. "Por favor, no documente esta pista de investigación", dice un mensaje del departamento adjunto a cada resultado de búsqueda de fotos. El departamento revelaría la fuente de la pista de la investigación si se le solicitara en un proceso penal, añadió Gallagher. Los abogados defensores y los grupos de derechos civiles argumentan que las personas tienen derecho a saber sobre cualquier software que las identifique como parte de una investigación criminal, especialmente una tecnología que ha llevado a arrestos falsos. La fiabilidad de la herramienta ha sido cuestionada con éxito en un puñado de casos judiciales recientes en todo el país, lo que llevó a algunos abogados defensores a postular que la policía y los fiscales están tratando intencionalmente de proteger la tecnología del escrutinio judicial. La policía probablemente "quiera evitar el litigio en torno a la fiabilidad de la tecnología", dijo Cassie Granos, defensora pública adjunta en Minnesota. Este año, una de sus colegas ayudó a persuadir a un juez para que excluyera un resultado de reconocimiento facial del caso del estado contra un presunto ladrón porque, según el juez, el software no "produce resultados precisos de manera consistente". La identificación errónea por parte de este tipo de software jugó un papel en los arrestos injustos de al menos siete estadounidenses inocentes, seis de los cuales eran negros, según los registros policiales y judiciales revisados por The Post y los informes de otros medios de comunicación. Posteriormente se desestimaron los cargos contra todos ellos. A algunos se les dijo durante los interrogatorios o en documentos proporcionados a sus abogados defensores penales que habían sido identificados por IA. Otros se enteraron del uso del software solo después de que los oficiales mencionaran de pasada que "la computadora" los había encontrado o que habían sido una "coincidencia positiva". Entre ellos se encontraba Quran Reid, que pasó seis días en la cárcel en 2022 por supuestamente usar tarjetas de crédito robadas para comprar bolsos de lujo en Luisiana, un estado que dijo que nunca había visitado. Un detective de la Oficina del Sheriff de la Parroquia de Jefferson escribió en una declaración jurada que había sido "aconsejado por una fuente creíble" para que investigara a Reid, que entonces tenía 28 años y vivía en Atlanta. De hecho, Reid fue identificado por un software de reconocimiento facial que se le proporcionó una foto de la escena del crimen. La declaración jurada no decía nada sobre el uso de la tecnología; Reid se enteró de ello por su abogado los días en que estuvo encarcelado. "¿Por qué yo? ¿Por qué me elegiste a mí entre todos?", recordó Reid que pensó cuando fue arrestado. "Ni siquiera sabes de dónde viene", dijo en una entrevista con The Post. El caso fue desestimado después de que su abogado señalara que Reid tiene un lunar facial que no estaba presente en la imagen del perpetrador. Desde entonces, Reid ha demandado al sheriff y al detective. El departamento del sheriff no respondió a las solicitudes de comentarios y no está claro si el robo por el que fue arrestado Reid ha sido resuelto. El software de reconocimiento facial funciona enviando una imagen de una escena del crimen, a menudo capturada por una cámara de videovigilancia, a una base de datos de fotos, a menudo de fotos policiales y licencias de conducir. El software utiliza inteligencia artificial para comparar el rostro de la persona en la "imagen de investigación" con los rostros de la base de datos. Luego, devuelve fotos de personas que ha identificado que son similares en apariencia. Debido a que no hay un consenso científico sobre lo que constituye una coincidencia, los fabricantes de software varían ampliamente en la cantidad de resultados que muestran y en qué medida cada resultado se parece a la foto de investigación. learview AI, un popular fabricante de software de reconocimiento facial para la policía, compara las imágenes de investigación con su base de datos de miles de millones de imágenes extraídas de las redes sociales y sitios web públicos, lo que significa que cualquier persona con una foto en cualquier lugar de la web podría ser incluida en cualquier investigación criminal si se parece al culpable. Los resultados de búsqueda de Clearview presentados como evidencia en un caso de agresión en el condado de Cuyahoga, Ohio, incluían una foto de la leyenda del baloncesto Michael Jordan y una caricatura de un hombre negro. En una declaración enviada por correo electrónico, Jack Mulcaire, director legal de Clearview, señaló que los dos primeros resultados del software en esa búsqueda fueron del perpetrador, quien luego se declaró culpable. La empresa se negó a responder otras preguntas sobre su tecnología. Las pruebas federales de los principales programas de reconocimiento facial han descubierto que es más probable que los programas identifiquen erróneamente a las personas de color, las mujeres y los ancianos porque sus rostros tienden a aparecer con menos frecuencia en los datos utilizados para entrenar los algoritmos, según Patrick Grother, que supervisa las pruebas biométricas en el Instituto Nacional de Estándares y Tecnología con sede en Washington. Aproximadamente 2 millones de personas de color y 2 millones de mujeres son arrestadas en los Estados Unidos cada año, según datos federales (https://ojjdp.ojp.gov/statistical-briefing-book/crime/faqs/ucr). Los contratos de Clearview con varios departamentos de policía, obtenidos por The Post, dicen que el programa no está diseñado "como un sistema de fuente única para establecer la identidad de un individuo" y que "los resultados de búsqueda producidos por la aplicación Clearview no están destinados ni permitidos para ser utilizados como evidencia admisible en un tribunal de justicia o en cualquier presentación judicial". Los fiscales están obligados a informar a los acusados sobre cualquier información que ayude a demostrar su inocencia, reducir su sentencia o dañar la credibilidad de un testigo que testifique en su contra. Cuando los fiscales no revelan dicha información - conocida como "violación Brady" después del fallo de la Corte Suprema de 1963 que la ordena - el tribunal puede declarar un juicio nulo, revocar una condena o incluso sancionar al fiscal. Ninguna ley federal regula el reconocimiento facial y los tribunales no están de acuerdo sobre si las identificaciones de IA están sujetas a las reglas Brady. Algunos estados y ciudades han comenzado a exigir una mayor transparencia en torno a la tecnología, pero incluso en estos lugares, la tecnología no se está utilizando con tanta frecuencia o no se está divulgando, según entrevistas y solicitudes de registros públicos. En junio de 2023, un panel de apelaciones de tres jueces en Nueva Jersey dictaminó que un acusado tenía derecho a información sobre el uso de la tecnología de reconocimiento facial, diciendo que la "veracidad del software no ha sido probada ni considerada confiable sobre una base probatoria por ningún tribunal de Nueva Jersey". La tecnología se había utilizado para ayudar a identificar a Francisco Arteaga como el autor de un robo a mano armada en 2019 en West New York, Nueva Jersey. Un tribunal inferior había rechazado las demandas del abogado de Arteaga de información sobre la tecnología, incluida la tasa de error del algoritmo, la lista completa de posibles coincidencias y las calificaciones de la persona que lo eligió como la coincidencia más probable. El fallo sentó un precedente en ese estado, pero otros estados no están obligados a acatarla. Informado sobre las conclusiones de The Post, el senador Cory Booker (demócrata de Nueva Jersey) dijo que "el uso de IA por parte de las fuerzas del orden que conduce a cargos penales debe revelarse para salvaguardar los derechos constitucionales y garantizar un juicio justo". Booker dice que le gustaría que se aprobara una legislación que exigiera la divulgación, y señala que "la libertad de las personas literalmente pende de un hilo". En Miami, la policía ha mantenido datos detallados desde 2020 sobre los resultados de las búsquedas de reconocimiento facial, pero rara vez ha compartido esa información con los acusados, según el análisis de The Post de los registros de software internos y los registros judiciales correspondientes. Durante los últimos cuatro años, el Departamento de Policía de Miami realizó 2.500 búsquedas de reconocimiento facial en investigaciones que llevaron a al menos 186 arrestos y más de 50 condenas. Entre los arrestados, solo 1 de cada 16 fue informado sobre el uso de la tecnología --- menos del 7 por ciento --- según una revisión realizada por The Post de informes públicos y entrevistas con algunos arrestados y sus abogados. El departamento de policía dijo que en algunos de esos casos la tecnología se utilizó para fines distintos a la identificación, como encontrar los feeds de redes sociales de un sospechoso, pero no indicó en cuántos de los casos sucedió eso. Carlos J. Martínez, el principal defensor público del condado, dijo que no tenía idea de cuántos de sus clientes de Miami fueron identificados con reconocimiento facial hasta que The Post le presentó una lista. "Uno de los principios básicos de nuestro sistema de justicia es el debido proceso, es saber qué evidencia hay en tu contra y poder desafiar la evidencia que está en tu contra", dijo Martínez. "Cuando eso se te oculta, ese es un gobierno todopoderoso que puede pisotearnos". Después de revisar los hallazgos de The Post, la policía de Miami y los fiscales locales anunciaron planes para revisar sus políticas para exigir una divulgación más clara en todos los casos que involucren reconocimiento facial. En enero, el subdirector de policía de Miami, Armando Aguilar, dijo a un panel del Congreso sobre inteligencia artificial en la aplicación de la ley que su departamento es "el primero en ser completamente transparente" sobre el uso del reconocimiento facial. Pero en julio, después de revisar los hallazgos de The Post, Aguilar reconoció que los oficiales pueden no haber informado siempre a los fiscales locales sobre el uso del reconocimiento facial. Aguilar dijo que el departamento daría a los fiscales toda la información sobre el uso del reconocimiento facial, en casos pasados y futuros, pero dejaría en manos de los fiscales decidir qué revelar a los acusados. Dijo que el departamento también comenzaría a capacitar a los oficiales para que siempre revelen el uso del reconocimiento facial en los informes de incidentes. Katherine Fernandez Rundle, la fiscal estatal del condado de Miami Dade, dijo en una entrevista que, antes de ser contactada por The Post, la policía de Miami no había informado a su oficina sobre el uso del reconocimiento facial en la gran mayoría de los casos. Su oficina recientemente ordenó a todos los departamentos de policía locales que incluyan información sobre el reconocimiento facial en los informes públicos y dijo que los fiscales serían proactivos al preguntar a la policía si las identificaciones se hicieron con IA, dijo Ed Griffith, un portavoz del fiscal. Rundle reconoció que los estudios han planteado preocupaciones sobre la precisión y la imparcialidad de la tecnología. "No se puede confiar en esto solo por causa probable", dijo. Sin embargo, su oficina dijo que no podía comprometerse a revisar los 186 casos identificados por The Post. En un correo electrónico, la fiscal adjunta del estado, Kathleen Hoague, dijo que "es más importante para nosotros trabajar en una política para avanzar". Gordon Weekes, el defensor público del condado de Broward, al norte de Miami, dijo que sus abogados rara vez se encuentran con casos en los que se revela el reconocimiento facial, aunque numerosas agencias policiales locales tienen acceso a dichos programas. "¿Cómo puede haber controles o equilibrios?", dijo Weekes. "Si la policía va a adoptar una nueva tecnología, tendrá que haber salvaguardas para que no se descontrole y comience a ser abusiva". La mayoría de los departamentos de policía que proporcionaron registros a The Post no respondieron o se negaron a responder preguntas sobre por qué no informan a las personas sobre el uso del reconocimiento facial. Cinco defendieron la práctica de no revelar las identificaciones de IA. "Nuestros detectives utilizan muchas herramientas, bases de datos y técnicas durante el curso de una investigación, en la que Clearview es una de ellas", dijo Jessica Taylor, portavoz de la ciudad de Pflugerville, en un correo electrónico. "No es parte del protocolo enumerar cada una de esas herramientas, bases de datos o técnicas en un informe". La policía de Arvada, Colorado, proporcionó documentos que demuestran que han revelado todos los casos de uso de reconocimiento facial desde que el estado aprobó una ley que lo exige en 2022. Al menos 21 ciudades y condados y el estado de Vermont prohíben el uso de herramientas de reconocimiento facial por parte de las fuerzas del orden debido a preocupaciones sobre su precisión y el potencial de sesgo racial. Sin embargo, en al menos dos de estos lugares, Austin y San Francisco, los agentes han solicitado de forma encubierta la ayuda de las agencias policiales vecinas que no están sujetas a las mismas normas, informó The Post a principios de este año. En respuesta al informe de The Post, Austin reescribió recientemente su política para prohibir esa práctica. Los acusados arrestados después de una coincidencia de reconocimiento facial dijeron que merecen la oportunidad de enfrentarse a su acusador, incluso cuando se trata de una IA. A pesar de un fallo de la corte de apelaciones de Nueva Jersey que declaró que Arteaga tenía derecho a la información sobre su coincidencia de IA, el Departamento de Policía de Nueva Jersey, que llevó a cabo la búsqueda de policías en Nueva Jersey, se negó a proporcionarla. Como resultado, los fiscales de Nueva Jersey redujeron los cargos contra Arteaga. Para entonces, Arteaga había pasado cuatro años en prisión a la espera de juicio. Aunque mantiene su inocencia, dijo que se declaró culpable de robo en segundo grado para volver con sus dos hijos. Caitlin Mota, portavoz del fiscal del condado de Hudson, se negó a hacer comentarios. En una entrevista, Arteaga dijo que "no tiene ningún problema" con que la policía utilice herramientas como el reconocimiento facial, pero dijo que deberían revelarlo y compartir cómo funciona el software. "Cuando se trata de un software cuyo código fuente no es accesible", dijo, "entonces, ¿cómo es eso justo?" ### Acerca de esta historia El Washington Post pasó seis meses solicitando registros internos sobre reconocimiento facial a más de 100 departamentos de policía de todo el país que habían indicado públicamente el uso de la tecnología para la identificación de sospechosos. Más de 40 proporcionaron datos sobre su uso del software, y 30 proporcionaron informes de incidentes relacionados y órdenes de arresto correspondientes a más de 1.000 casos en los últimos cuatro años. Luego, el Post buscó registros judiciales para determinar si los documentos públicos revelaban el uso de la tecnología. El Post también se puso en contacto con los acusados o sus abogados cuando había información de contacto disponible para determinar si habían sido informados del uso de la tecnología. La gran mayoría dijo que no tenían idea de que se había utilizado el reconocimiento facial para identificarlos. No se pudo contactar a todos, por lo que es posible que se les haya informado a algunos acusados adicionales sobre el reconocimiento facial a pesar de que no aparece en documentos públicos. El Post descubrió que la policía no siempre etiqueta claramente su uso del software. Por ejemplo, en los datos proporcionados por el Departamento de Policía de Miami, los registros muestran que las víctimas conocían a los sospechosos en algunos casos en los que el reconocimiento facial figuraba como conducente a una "identificación positiva". El departamento dijo que los agentes a veces utilizan herramientas de reconocimiento facial para localizar el perfil de redes sociales de un sospechoso conocido y otra información digital. Edición de Evelyn Larrubia. Jeremy Merrill y Nate Jones contribuyeron a este informe.