Incidentes Asociados

Un mes antes de que el New York Times publicara la historia de Robert Williams, policías mataron a George Floyd. Todos recordamos las semanas que siguieron. Las protestas que estallaron en todo el país llamaron la atención en todo el mundo. Fue tan apasionante ver esas escenas de conflictos civiles que una parte notable de la historia pasó casi completamente desapercibida. En 15 ciudades, el Departamento de Seguridad Nacional desplegó aviones, helicópteros y drones para vigilar a los manifestantes. El avión voló sobre los manifestantes en Nueva York, Filadelfia, Detroit, alimentando los centros de comando de Aduanas y Patrulla Fronteriza, que luego transmitieron la información a las fuerzas policiales y la Guardia Nacional en tierra. En Minneapolis y DC, un avión de reconocimiento secreto RC-26B trabajó con operaciones especiales en tierra, transmitiendo videos a un centro de comando del FBI. En otro caso en D.C., altos funcionarios del Pentágono ordenaron helicópteros para proporcionar, cito, "presencia persistente" para dispersar multitudes. Los helicópteros volaron tan bajo que la pura presión hacia abajo de las palas de sus rotores arrancó los letreros de los edificios. Y, por supuesto, hizo correr a los manifestantes. Esto era algo salido de la ciencia ficción: una operación de inteligencia militar completa en territorio estadounidense. En informes posteriores, funcionarios militares y gubernamentales insistieron en que ninguno de los aviones desplegados sobre los manifestantes estaba equipado con capacidades de reconocimiento facial. En la mayoría de los casos, el avión estaba tan alto que el reconocimiento facial sería discutible: no se puede distinguir una cara de un punto luminoso a 19,000 pies. Pero si incluso algunos aviones volaran lo suficientemente cerca como para capturar rostros individuales, sería problemático. Según el New York Times, la aeronave capturó al menos 270 horas de imágenes de protesta y las cargó en "Big Pipe", una red del DHS a la que pueden acceder otras agencias policiales de todo el país para futuras investigaciones. El video en Big Pipe se puede almacenar hasta por cinco años. Una preocupación potencial, entonces, es que si un avión grabó un video lo suficientemente bueno, no necesitaría reconocimiento facial en tiempo real a bordo: una agencia como el FBI podría acceder a ese video semanas o meses después, para identificar a los manifestantes individuales. Es muy posible que esto no haya sucedido y que no suceda. Pero en todo el país, la policía ya ha utilizado el reconocimiento facial para identificar y, en algunos casos, arrestar a manifestantes individuales de BLM. Se desconoce el alcance de esto: la policía no tiene la obligación de informar cuando pasan su cara por una máquina. > "[Ted] Lo que me preocupa es que actualmente no hay límites en absoluto. Ninguno en absoluto. Así que [. . . ] también pueden usarlo para echar un vistazo a todos los que están en una protesta pacífica de algún tipo. y luego anotar sus nombres y molestarlos o arrestarlos o causarles problemas de una forma u otra o simplemente archivarlos en una base de datos como una persona de interés, nada de lo cual queremos que nos haya sucedido". Este es Ted Claypoole, abogado y autor de temas legales relacionados con la privacidad y la IA. Aquí hay un ejemplo de lo que Ted quiere decir con "sin límites": resulta que puedes ser arrestado y ni siquiera saber que el reconocimiento facial jugó un papel en ello. Una manifestante el verano pasado, Oriana Albornoz, fue arrestada por arrojar piedras a una línea policial. Eso es definitivamente un delito, pero en ningún momento de su procesamiento la policía de Miami mencionó, en la documentación, a su abogado o en cualquier otra capacidad, que usaron Clearview AI para identificarla como la persona que arrojó piedras. Fue necesaria una investigación independiente de NBC News para descubrir esa información. Y es información importante, ¿verdad? Tal vez Oriana fue la culpable, pero la próxima Oriana podría ser un Robert Williams. > "[Ted] Entonces, el problema en este momento no es necesariamente la tecnología. Es la falta de medidas de seguridad en torno a esa tecnología y su uso por parte de la policía". Legislación ----------- Fue en medio de todas las protestas de BLM que, el 25 de junio, un grupo de legisladores demócratas propuso la "Ley de moratoria de tecnología biométrica y reconocimiento facial". El objetivo de la legislación sería, cite: > "Prohibir la vigilancia biométrica por parte del gobierno federal sin una autorización legal explícita y retener ciertos subsidios federales de seguridad pública de los gobiernos estatales y locales que se dedican a la vigilancia biométrica". En otras palabras, las fuerzas del orden solo pueden usar la recopilación de datos biométricos con un permiso legal explícito, y cualquier persona que no siga la regla perderá los fondos federales como sanción. El problema con este proyecto de ley es que en realidad no irá a ninguna parte. De hecho, probablemente no fue diseñado para eso: solo tiene ocho páginas y en su mayoría comprende definiciones legales de lo que significan términos como "reconocimiento facial" y "reconocimiento de voz". En serio, casi no hay ley en esta ley. La mayor parte se lee así. Cita: > "FUNCIONARIO FEDERAL.—El término 'funcionario federal' significa cualquier funcionario, empleado, agente, contratista o subcontratista del Gobierno Federal". Entonces entiendes la idea, es un gesto simbólico más que nada. Y, en general, el esfuerzo legal para detener el uso policial del reconocimiento facial no ha ido mucho mejor que esto. > "[Ted] Desde el 11 de septiembre, la sociedad estadounidense en general y las legislaturas en particular han detestado poner límites a la vigilancia policial. Quieren asegurarse de que si alguien está allí para cometer actos terroristas, que la policía tenga las herramientas que necesitan atraparlos. > > Sin embargo, durante ese tiempo, me refiero en otras palabras a los últimos 19 años, muchas de estas tecnologías, no solo el reconocimiento facial sino, por ejemplo, otros tipos de tecnologías de vigilancia como personas que llevan su propio geo- dispositivo de ubicación en su teléfono inteligente, con ellos 24 / 7. Todas estas tecnologías han crecido en los últimos 15 o 20 años y debido a que las legislaturas y otros no han estado muy interesados en precisar y poner barandas alrededor de la vigilancia durante ese tiempo, ellos realmente no he puesto ninguna regla en absoluto". El primer y pequeño paso hacia una regulación significativa del reconocimiento facial ocurrió el 14 de mayo de 2019 en San Francisco, donde la Junta de Supervisores de la ciudad votó 8 a 1 para prohibir por completo el reconocimiento facial entre las agencias de aplicación de la ley. Diez meses después, el estado de Washington firmó la ley más amplia en este ámbito, que exige que las fuerzas del orden obtengan órdenes judiciales, o incluso que notifiquen y soliciten permiso a la persona en cuestión, antes de utilizar el reconocimiento facial. Entre muchas otras disposiciones, también establece que las agencias deben probar regularmente los algoritmos que utilizan para determinar la precisión y los sesgos, y luego informar los resultados al estado. La ley de Washington podría ser una señal del futuro pero, con toda probabilidad, no lo será. Es, por supuesto, el único estado de este tipo con reglas tan estrictas. Incluso el caso de San Francisco es, en última instancia, muy débil porque es solo la ley de la ciudad. Si eres un manifestante en San Francisco, la policía de San Francisco no puede usar el reconocimiento facial en tu contra, pero la Guardia Nacional no tiene que seguir las mismas reglas, ni el FBI, ni siquiera la policía estatal de California. > "[Ted] Creo que posiblemente si la Asociación de Abogados de los Estados Unidos emitiera algunas declaraciones, declaraciones de políticas que creen que esta es la mejor manera de usar esta tecnología desde el punto de vista de la Cuarta Enmienda, para usarla dentro de los límites de la constitución Eso podría ayudar. > > Pero realmente lo que probablemente necesitamos ver es que algún lugar como el Estado de California tome esto como un problema y luego apruebe una ley al respecto porque realmente cuando tienes un gran estado que asume el liderazgo en este papel , entonces todos los demás parecen mirarlo con cuidado". No se puede detener el progreso ----------------------- Quizás algún día la legislación regule el reconocimiento facial en una escala más amplia. Pero la historia demuestra, una y otra vez, que no se puede detener el progreso. Por regla general, las tecnologías mejoran y se generalizan con el tiempo, por lo que hay pocas razones para pensar que el reconocimiento facial no será increíblemente preciso y completamente generalizado en nuestra sociedad dentro de unos años. El universo donde los gobiernos dejan de usar esta tecnología por preocupaciones sobre la privacidad individual parece mucho más improbable que el universo donde se vuelve tan normal que todos nos acostumbramos. Para aquellos de ustedes que creen que el reconocimiento facial es bueno porque previene el crimen, eso será algo bueno. Para aquellos de ustedes que sospechan de la aplicación de la ley o que protegen su privacidad, será una distopía espeluznante. Pero no tiene que ser así. El universo que imaginas ahora, donde las cámaras están en todas partes y los gobiernos te siguen constantemente con la cara, está condicionado en algunos aspectos por toda la ciencia ficción que hemos visto y leído a lo largo de los años. En la mayor parte de la ciencia ficción, la recopilación de datos biométricos es algo que nos sucede a nosotros, contra nosotros. Muchas de esas historias no consideran cómo podemos usar la misma tecnología. Introducción a Andrew/Bielorrusia ----------------------- > "[Andrew] Mi nombre es Andrew Maximov. Soy fundador y director ejecutivo de Promethean AI y desarrollador de videojuegos con aproximadamente una década y media de experiencia". Andrew Maximov no es un activista de oficio. Se formó como director de arte de la serie "Uncharted", algunos de los videojuegos más populares del mundo. Pero a principios de este año, centró su atención en un tipo de proyecto completamente diferente. Para comprender por qué, primero debe comprender la situación política en su país de origen, Bielorrusia. > "[Andrew] Bielorrusia ha sido ampliamente referida como la última dictadura de Europa. [. . . ] Quiero decir que realmente es una situación extremadamente desafortunada. Ha sido así durante los últimos 20, 26 años". Desde la disolución del bloque soviético, Bielorrusia ha estado bajo el control de un solo líder: Alexander Lukashenko. > "[Andrew] [es un] régimen autoritario que hizo desaparecer a la gente en los años 90 y nada ha cambiado mucho. [. . . ] Las personas son habitualmente perseguidas, encarceladas, perseguidas o exiliados por sus opiniones políticas, ya sea que actúen sobre ellas o simplemente las defiendan públicamente". Según Reporteros sin Fronteras, Bielorrusia es el país más peligroso para los periodistas en Europa. Los líderes políticos de la oposición se ven obligados a huir del país de forma rutinaria, o algo peor. > "[Andrew] Ha habido cinco elecciones presidenciales y ninguna de ellas ha sido ampliamente reconocida como libre o justa". El 9 de agosto de 2020, Lukashenko fue reelegido presidente por sexta vez. O, para decirlo con mayor precisión: su lado se adjudicó la victoria. No hay duda de que el recuento real de votos no importó. Entonces, como sucedió la última vez que Lukashenko fue elegido, estallaron las protestas. Y, como sucedió la última vez que estallaron las protestas, algunos disidentes fueron recibidos con violencia. > "[Andrew] Creo que el sentimiento predominante que tienes al crecer en una dictadura es el de la desesperanza y la impotencia y eso nunca desaparece. Llevas eso contigo y tanto como eso, también llevas la culpa. por no poder proteger a las personas a la izquierda y a la derecha de usted cuando las ve golpeadas o arrestadas por los matones uniformados que pretenden representar la ley de alguna manera". Coberturas faciales -------------- Hay muchos videos publicados en las redes sociales donde la policía bielorrusa detiene violentamente o golpea activamente a civiles. En la mayoría de estos videos, la policía se cubre la cara. Al principio es perfectamente comprensible: durante la COVID, todo el mundo debería llevar mascarillas. Pero tienes la sensación de que no tiene nada que ver con COVID. La policía usó estas máscaras antes de la pandemia y, francamente, no tienen nada de médico. Suelen ser pasamontañas y solo a veces cubren la nariz. En un video, la máscara de un oficial de policía cubre su nariz pero termina sobre su boca. Claramente, esto no se trata de gérmenes. > "[Andrew] Lo cubren de forma rutinaria porque, bueno, estoy bastante seguro de que la mayoría de ellos son muy conscientes de que no están haciendo algo que la sociedad en general apreciaría. [. . . ] si entra en los días posteriores a COVID, estoy seguro de que nadie se quitará las máscaras en el corto plazo". La policía usa máscaras para que puedan hacer lo que quieran con los manifestantes y no rendir cuentas por ello. No es un fenómeno poco común. A lo largo de las protestas de George Floyd, por ejemplo, el video capturó a los oficiales pegando sus insignias o sin llevar ningún tipo de información de identificación en sus uniformes. > "[Andrew] Porque una de las formas más efectivas de aplicar presión sobre ellos es simplemente la capacitación social y hay una – gente, ya sabes, protestando con carteles que dicen: "La anonimización salva vidas", porque en algunos casos lo es". El video --------- Andrew vive en Los Ángeles ahora, por lo que no pudo participar en las protestas. Pero se le ocurrió una forma novedosa de contribuir a la causa. <https://www.youtube.com/watch?v=FAJIrnphTFg > Así es Andrew, en un video publicado en YouTube el 24 de septiembre de 2020. Traducido, dice: "sus hijos los mirarán a la cara cuando cometan el los actos más despreciables de tu vida". El video tiene más de un millón de visitas, bastante bueno para un país de menos de diez millones de habitantes. Fue un éxito instantáneo debido a lo radical que era el concepto. En el video, Andrew demuestra diligentemente, caso por caso, un software que creó que desenmascara a policías violentos. Es bastante salvaje. Durante cinco minutos, toma clips de violencia policial, los congela y demuestra cómo su algoritmo puede interpretar solo los rasgos faciales que se muestran (ojos y nariz, a veces solo los ojos) y mapearlos en el rostro de una persona real. > "[Andrew] Para todos aquellos que seguirán aterrorizando, todos en su vida sabrán lo que hiciste. El conductor con el que te mirarás al cruzar la calle con tu familia, grupos de trabajadores o jóvenes que pase por la noche, el médico que tratará a sus hijos, todos sabrán lo que hizo. Se supone que debe defender al pueblo de Bielorrusia". Cómo funciona ------------ > "[Nate] Cuéntame sobre la tecnología en este video y cómo funciona. > > "[Andrew] En realidad fue bastante sorprendente cómo – sorprendente e inquietante lo fácil que fue armar una herramienta de reconocimiento facial. Es concebible que puedas hacerlo en una tarde. Esa es la parte aterradora. Como, ya sabes, un estudiante de secundaria con una computadora portátil podría hacer eso. > > [. . . ] Son un montón de modelos de visión por computadora listos para usar o modelos de reconocimiento facial que puede aprovechar y [. . . ] Simplemente tienen esta capa neuronal profunda que de alguna manera representa algunos rasgos faciales que es como una representación multidimensional distribuida alrededor de, lo que sea, 50 neuronas, ¿verdad? Eso definiría todo tipo de cosas que [. . . ] salen como para representar un rostro individual en una imagen particular, por ejemplo. > > Entonces todo lo que tenemos que hacer, correcto, es raspar un montón de imágenes, construir una biblioteca de esas caras y luego compararlas con otras caras. Entonces, en este caso en Bielorrusia, solo hay un esfuerzo general para eliminar el anonimato, ¿verdad? Solo hay gente publicando fotos de policías. Hay canales de Telegram porque ha resultado más difícil para el gobierno cerrar [. . . ] > > Puedes escribir – hay APIs para literalmente cualquier cosa. Puede crear un bot de Instagram al que las personas puedan enviar esto. Puede, sí, tener un cliente que simplemente lo raspe automáticamente. Puedes hacerlo a mano. En mi caso, solo hice tapping con algunas otras personas para que me ayudaran a guardar literalmente cada imagen relevante que encontraran porque el tipo de solidaridad comunitaria es bastante fuerte [. . . ]. eso ayuda a construir esa biblioteca de personas sin máscaras. En realidad, solo ejecutan ese modelo, extraen las características y luego ejecutan lo mismo sobre las personas con las máscaras y todas las demás fotos. Ya sabes, congela el cuadro de los videos que tienen entrantes y luego obtienes una cierta cantidad de coincidencias con cierta confianza y sabes, puedes verificar manualmente además de eso". Una vez que tiene una coincidencia alta confianza, Andrew superpone la imagen sin máscara sobre la máscara y hace un poco de reconstrucción digital en el camino. > "[Andrew] La reconstrucción facial real es un poco más complicada. También es un poco más difícil de hacer fuera de los estantes. [. . . ] Pero también es bastante factible". No es un sistema perfecto; a veces, las caras superpuestas se ven un poco caricaturescas. Pero también, en su mayor parte, parecen bastante precisos. > "[Andrew] Cualquier tipo de herramientas de IA, ninguna de ellas es 100 por ciento correcta, solo punto, porque todas funcionan según el conjunto de datos en el que han sido entrenados y obviamente se sabe que tienen sesgos para estar completo". Para complementar el algoritmo, Andrew usó sus propios ojos y los de sus colegas para tratar de verificar sus resultados. > "[Andrew] Siempre debe haber un humano para validar y verificar". Identificación errónea ----------------- El video de Andrew es una prueba de concepto: que el reconocimiento facial puede ser utilizado no solo por la policía contra los civiles, sino también por los civiles contra la policía. Eso abre una gran lata de gusanos. > "[Nate] Una de las cosas que se me ocurrieron cuando estaba viendo tu video es que se remonta a la cuestión de la precisión. Nosotros, ya sabes, obviamente no habrías creado y publicado lo que hiciste. si no pensabas que los resultados eran precisos. Pero, ¿es la consecuencia de obtener uno de estos errores extremadamente alto? Como si pudieras terminar acusando a la persona equivocada de cosas muy malas y hacer que pasen por lo que pretendes que la gente tienes, correcto, pasar. > > [Andrew] No creo que ningún programa pueda ser lo suficientemente efectivo como para que no te preocupes por eso. Esa es una gran preocupación y sí, y nos equivocamos con una persona "Entonces eso no fue una broma para mí en absoluto y esa es una responsabilidad que tienes que asumir. Una vez más, no había personas que no estuvieran asociadas con las Fuerzas Armadas y la persona con la que nos equivocamos era un ex policía que estaba despedido de la Fuerza porque extorsionaba sobornos a hombres de negocios. Quiero decir, tienes que asumir esa responsabilidad que no desearía que nadie en el mundo tuviera que asumir porque si tiene alguna posibilidad de atenuar la violencia incluso en lo más mínimo, entonces podría valer la pena porque la incomodidad de un ex policía en comparación con literalmente miles de personas que son encarceladas y golpeadas en la calle, simplemente no pesa. > > Sé que en un mundo ideal, quieres asegurarte de que nadie salga lastimado como consecuencia de lo que hacemos y lo entiendo perfectamente. Pero sí, es solo la cuestión de tener que hacer una llamada y en ese momento, dependía de mí hacer una y bueno, sí, tengo que vivir con las consecuencias de eso, sí". Compartiendo el algoritmo --- ------------------ Identificar erróneamente a uno de los oficiales de policía, para una audiencia de un millón de personas, es algo con lo que Andrew tiene que vivir ahora, pero no es su única carga. > "[Andrew] He estado recibiendo toneladas de solicitudes de personas para simplemente lanzar esto y esto obviamente suena como una receta para el desastre para mí". Muchos bielorrusos, y no bielorrusos, comprensiblemente querían tener en sus manos este software. Andrew decidió no distribuirlo. > "[Andrew] fue una decisión terrible tener que tomarla porque, incluso hasta el día de hoy, recibo correos electrónicos de personas de todo el mundo que se encuentran en una situación similar que dicen: ya sabes, están siendo brutalizados, están siendo golpeados y sienten que su gobierno les está fallando y que no tienen ninguna forma de protegerse realmente porque el gobierno tiene el monopolio de la violencia y no hay controles ni equilibrios. en muchos lugares Desafortunadamente, la mayor parte del tiempo, EE. UU. también está incluido. > > Eso es simplemente desgarrador. Pero, ya sabes, literalmente, puse el proyecto en suspenso en el momento en que estaba trabajando en la parte que podía rastrear arbitrariamente cualquier sitio web en busca de coincidencias porque eso parecía un... todo el asunto solo para mí... Lo haría más bien esto no tenía que existir en absoluto. Esa es la parte triste de esto. Al igual que las preocupaciones éticas son ridículas. > > Y aunque no hay un futuro en el que la policía no sea tan fácil de identificar como todos los demás a quienes identifiquen, definitivamente no quiero ser la policía en cierto sentido, lo que significa abusar de esas herramientas y [. . . ] especialmente con la oportunidad de mal uso porque alguien podría haber usado esta herramienta con la misma facilidad. No sé, acechar a su ex novia oa su ex esposa o algo mucho más siniestro y eso es terrible. > > Así que tener eso como una herramienta pública es aterrador para mí". Conclusión ---------- La pregunta de este episodio ha sido: ¿las fuerzas del orden deberían usar el reconocimiento facial? Discutimos cuán efectivo se está volviendo para atrapar delincuentes, sino también cuán sesgado puede ser y cuán propenso es al mal uso. Resulta que esa era la pregunta equivocada. Lo que realmente deberíamos preguntarnos es: ¿cómo podemos lidiar con el reconocimiento facial y todo el poder que le da a quien la use Esta es una tecnología que puede causar un daño extremo, ya sea al facilitar una distopía orwelliana donde el Gran Hermano siempre está mirando, o al identificar, o identificar erróneamente, a alguien que podría verse muy perjudicado por ser expuesto por lo que sea que esté frente a la cámara. haciendo, bueno o malo. La pregunta es, ¿seremos nosotros, como sociedad, como Andrew? ¿Reconoceremos el poder de esta tecnología, y el poder de su mal uso, y lo abordaremos a tiempo para evitar consecuencias terribles? Probablemente no. la aplicación de la ley no se regulará a sí misma, y esto sigue siendo un tema demasiado marginal para que la mayoría de los estadounidenses se preocupen, por lo que los políticos, en general, es mejor que no lo toquen. > "[Ted] Por el momento, poner límites a la fuerza policial hace que parezca que te opones a la ley y el orden. Entonces, ya sea que esté bien o mal, eso siempre ha sido un ataque de un lado contra el otro es todo tuyo, si estás diciendo que la policía no puede hacer esto, eso significa que estás del lado de los criminales. Ya sabes, y los legisladores son muy, muy sensibles con esos ataques". Lo más probable es que los organismos encargados de hacer cumplir la ley continúen recopilando sus datos biométricos, incluso si usted no quiere que lo hagan. Y en algún momento, alguien construirá un software como el de Andrew y lo lanzará para uso público. Porque no hay forma de detener el progreso tecnológico. Solo puedes montar la ola y esperar no estrellarte.