Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2912

Incidentes Asociados

Incidente 5172 Reportes
Man Arrested For Sock Theft by False Facial Match Despite Alibi

No habrá vuelta atrás en el reconocimiento facial
nymag.com · 2019

El viernes 16 de agosto, alrededor de las 7 a. .html) fue encontrado en una plataforma de metro en la estación de Fulton Street en el bajo Manhattan y, una hora más tarde, un tercero cerca de un bote de basura en West 16th Street. Inicialmente, la policía pensó que podrían ser bombas improvisadas, como las ollas a presión llenas de metralla que estallaron en el maratón de Boston de 2013 y en Chelsea en 2016, pero al inspeccionarlas resultaron ser inofensivas ollas arroceras vacías, probablemente destinadas a asustar pero no explotar. Los trenes se retrasaron durante el viaje de la mañana, pero dado que eso sucede con bastante frecuencia sin ninguna ayuda terrorista, lo más aterrador de este episodio puede haber sido la forma en que atraparon al presunto perpetrador. Minutos después del descubrimiento, la policía de Nueva York sacó imágenes de un hombre dejando los dispositivos de las cámaras de vigilancia del metro y se las entregó a su Sección de Identificación Facial (FIS), que [las ejecutó a través del software] (https://nypost.com/2019/08 /25/how-nypds-facial-recognition-software-ided-subway-rice-cooker-kook/) que comparó automáticamente su rostro con millones de fotos policiales en la base de datos del departamento de policía. El programa arrojó cientos de coincidencias potenciales en las que los oficiales detectaron rápidamente a su persona de interés: Larry Griffin II, un vagabundo de 26 años que la policía de Nueva York había arrestado en marzo con parafernalia de drogas. FIS verificó dos veces sus imágenes de vigilancia con las cuentas de redes sociales de Griffin y, a las 8:15 a. m., su nombre y fotos se enviaron a los teléfonos celulares de todos los policías de Nueva York. Fue arrestado en el Bronx esa noche y acusado de tres cargos de colocar una bomba falsa. (Él se declaró inocente). Esta podría parecer una historia para sentirse bien: una persona potencialmente peligrosa fue identificada y detenida con una velocidad previamente imposible y sin víctimas gracias al uso estricto de nueva tecnología (o novedosa; la policía de Nueva York ha usó software de reconocimiento facial [desde 2011] (http://www.apple.com/)). Pero aléjese un poco y se parece más a un lado positivo de una de las historias más tristes de este año: el sistema de reconocimiento facial que atrapó a Griffin es solo una pequeña pieza de un aparato de vigilancia en expansión, invisible y que destruye la privacidad que ahora nos rodea a todos, construido bajo nuestras narices (y usando nuestras narices) por compañías tecnológicas, fuerzas del orden, intereses comerciales y una serie secreta de intermediarios de datos y otros terceros. En 2019, es posible que el reconocimiento facial finalmente se haya graduado del desvalido distópico: fue solo la cuarta o quinta cosa más aterradora en Minority Report; nunca ha jugado más que un papel secundario en Black Mirror; y en las películas de Terminator, era una función de seguridad crucial que evitaba que Terminator terminara con las personas equivocadas, lo que provocó una gran preocupación moderna. Un breve resumen del año de Face Panic: esta primavera, escuchamos que la base de datos de reconocimiento facial del FBI ahora incluye más de [641 millones de imágenes] (http://www.apple.com/) y las identidades de una mayoría desprevenida de estadounidenses, que se pueden registrar en cualquier momento sin orden judicial ni causa probable. También escuchamos que legisladores asustados prohibieron el uso policial del reconocimiento facial en Oakland; Berkeley; Somerville, Massachusetts; y San Francisco, de todos los lugares, donde los productos tecnológicos orwellianos son la industria local. Pero en todas partes y en todos los demás contextos, el reconocimiento facial es legal y está casi completamente desregulado, y escuchamos que ya se está usando con nosotros en [las calles de la ciudad] (https://www.wired.com/story/some-us- cities-moving-real-time-facial-surveillance/), aeropuertos, tiendas minoristas, [restaurantes](https://thetakeout.com/restaurants- están-utilizando-software-de-reconocimiento-facial-para-re-1827237920), hoteles, [eventos deportivos] (https://www.espn.com/chalk/story/_/id/24884024/why-use-facial-recognition-cameras-sporting-events-the-rise), [iglesias](https://www. washingtonpost.com/), y presumiblemente muchos otros lugares que simplemente no conocemos. Durante el verano, escuchamos un rumor sobre una aplicación de fotos novedosa que podría ser una [estragia secreta del gobierno ruso](https://www.theverge.com/2019/7/17/20698393/faceapp-aging-russia- security-privacy-preocupaciones-dnc-democrats-warning-campaign-election) para recolectar nuestras selfies para su propia base de datos de reconocimiento facial. Eso resultó ser falso (o al menos eso creemos), pero podría habernos hecho reconsidere todas las fotos que le hemos dado a otras empresas cuyos acuerdos de términos de uso llenos de lagunas se traducen en "somos dueños de su cara", incluido Facebook, que se cree que tiene [una de las bases de datos de reconocimiento facial más grandes del mundo] (https:/ /slate.com/technology/2019/07/facebook-facial-recognition-ice-bad.html) y no ha demostrado exactamente ser el custodio más responsable de nuestra [información privada] (https://slate.com/ tecnología/2019/04/facebook-data-breach-540-million-users-privacy.html). Apenas escuchamos sobre la Ley de privacidad de reconocimiento facial comercial de 2019, un proyecto de ley presentado en marzo por el senador republicano Roy Blunt y el demócrata Brian Schatz que habría prohibido a las empresas utilizar el reconocimiento facial para rastrearlo en público y recopilar o vender sus datos faciales sin su consentimiento. Era el tipo de propuesta bipartidista de sentido común con la que casi todos pueden estar de acuerdo; se remitió a un comité y nunca llegó a votación. Pero escuchamos mucho sobre la falta de confiabilidad del reconocimiento facial, y que las identificaciones erróneas son comunes, especialmente para [personas de color] (http://www.apple.com/), y que el sistema de la Policía Metropolitana de Londres tiene una [tasa de falla terrible] (https://www.wired.co.uk/article/met-police-london-facial-recognition-test), y que el software de Amazon una vez confundió a un grupo de congresistas aparentemente honrados con [sospechosos criminales] (https:// www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28). Quizá eso significaba, esperábamos, que la tecnología todavía estaba a medias y que nuestras preocupaciones eran prematuras, y que una gran demanda podría hacer que todo desapareciera. Y luego escuchamos sobre Larry Griffin II. Y si su historia estaba destinada a calmar cualquier temor sobre el reconocimiento facial, bueno, la misión no necesariamente se cumplió. Si el software funciona lo suficientemente bien como para identificar a un sospechoso de engaño de bomba entre 8,4 millones de neoyorquinos en menos de una hora usando solo un par de fotos de vigilancia granuladas, tal vez nuestras preocupaciones no sean tan prematuras después de todo. Porque aunque el reconocimiento facial aún no es completamente confiable, y es posible que nunca lo sea, ya está transformando la aplicación de la ley. Y probablemente no tendrá que ser perfecto antes de que también transforme nuestra vida cotidiana. En una historia posiblemente relacionada, tal vez haya notado una demanda inusualmente alta de fotos de su rostro en los últimos años. El reconocimiento facial computarizado ha estado en desarrollo [desde la década de 1960] (https://www.doc.ic.ac.uk/~hh4017/History). Sin embargo, el progreso fue constante pero lento hasta la reciente llegada de [redes neuronales artificiales avanzadas](https://medium.com/@ageitgey/machine-learning-is-fun-part-4-modern-face-recognition-with -aprendizaje profundo-c3cffc121d78), es decir, sistemas informáticos modelados en cerebros de animales que pueden reconocer patrones mediante el procesamiento de ejemplos, lo que ha permitido a los programadores humanos alimentar estas redes con muchas fotos de rostros y luego hacerse a un lado mientras los algoritmos aprenden por sí mismos cómo se ven los rostros y luego, cómo diferenciar esos rostros y, finalmente, cómo decidir si un rostro en una foto es el mismo rostro en una foto diferente, incluso si ese rostro lleva gafas de sol, maquillaje o bigote, o está mal iluminado o ligeramente borroso en una imagen, pero no el otro Cuantas más fotos tiene que aprender un algoritmo (millones o miles de millones, idealmente), más preciso se vuelve. Algunas empresas te pidieron que subieras las fotos de tus vacaciones y te etiquetaras en ellas. Y otros pidieron una selfie a cambio de una caricatura autogenerada de ti o para decirte a qué celebridad o pintura del Renacimiento te pareces más. Y luego, algunas empresas se impacientaron con todas estas preguntas, por lo que adquirieron las otras empresas que ya habían recopilado sus fotos, o recolectaron imágenes públicas de usted de redes sociales y sitios de citas, o configuran cámaras en espacios públicos para [tomar sus propias fotos] (https://www.nytimes.com/2019/07/13/technology/databases-faces-facial-recognition-technology.html). ¿Cuántos algoritmos han sido entrenados en tu cara? Difícil de decir, porque en realidad no hay leyes que requieran su consentimiento, pero Facebook, Google, Amazon, Apple, Microsoft, IBM y docenas de nuevas empresas con nombres como Facefirst, FaceX y Trueface tienen su propio rostro. algoritmos de reconocimiento, y tenían que haber aprendido en alguna parte. Algunos de esos algoritmos también son bastante precisos, al menos en condiciones óptimas. El año pasado, el Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU. [probó 127 algoritmos de reconocimiento facial de 40 desarrolladores] (https://nvlpubs.nist.gov/nistpubs/ir/2018/NIST.IR.8238 .pdf) para ver con qué frecuencia podían encontrar coincidencias en una gran base de datos. Con imágenes de alta calidad para comparar, los algoritmos de mayor rendimiento solo fallaron en devolver la coincidencia correcta en el 0,2 por ciento de las búsquedas, lo que es [20 veces mejor que los resultados de una prueba similar en 2014] (https://www.nist .gov/news-events/news/2018/11/nist-evalue-shows-advance-face-recognition-softwares-capabilities). El reconocimiento facial inevitablemente mejorará por sí solo, pero podría ser aún más preciso cuando se usa en combinación con otros datos biométricos de largo alcance. En China, reconocimiento de la marcha ya está identificando a las personas según la forma en que caminan, con un 94 % de precisión, según una empresa que ofrece el servicio. Y el Pentágono afirma haber desarrollado un [láser de latido](https://www.technologyreview.com/s/613891/the-pentagon-has-a-laser-that-can-identify-people-from-a-distanceby -their-heartbeat/), es decir, un rayo infrarrojo que puede leer la firma cardíaca única de una persona a través de una camisa o chaqueta, supuestamente con un 95 por ciento de precisión. (Según los informes, el modelo actual puede detectar un latido del corazón a 200 metros de distancia, pero con un láser ligeramente mejor, sin embargo: "No quiero decir que pueda hacerlo desde el espacio", dijo una fuente del Pentágono a MIT Technology Review " pero los rangos más largos deberían ser posibles”). Para que el software de reconocimiento facial lo reconozca en la naturaleza, debe estar conectado a una base de datos con su foto e información de identificación en ella. (El hecho de que un algoritmo se haya entrenado con tu cara no significa que sepa quién eres). A menos que seas Elena Ferrante o un miembro de Daft Punk, y tal vez incluso si eres ellos, es muy probable que estés en una base de datos o dos. Si alguna vez te etiquetaron en una foto en Facebook o Instagram, por ejemplo, perteneces a lo que según afirma Facebook [la base de datos de reconocimiento facial más grande del mundo] (https://research.fb.com/publications/deepface -closing-the-gap-to-human-level-performance-in-face-verification/), a la que los usuarios añaden cientos de millones de imágenes nuevas cada día. Se presume que el algoritmo de reconocimiento facial de la compañía, DeepFace, que constantemente se vuelve a entrenar en esas nuevas imágenes, es [más preciso] (https://www.theverge.com/2014/7/7/5878069/why-facebook- está-venciendo-al-fbi-en-reconocimiento-facial) que el software utilizado por la mayoría de las agencias de aplicación de la ley. Por ahora, Facebook dice que solo usa DeepFace para sugerir etiquetas cuando los usuarios cargan nuevas imágenes. Pero eso no ayudó a la empresa en agosto, cuando un tribunal federal de apelaciones dictaminó que 7 millones de usuarios de Facebook en Illinois [pueden demandar a la empresa](https://www.reuters.com/article/us-facebook-privacy-lawsuit/ facebook-loses-facial-recognition-appeal-must-face-privacy-class-action-idUSKCN1UY2BZ) por almacenar sus datos faciales sin permiso, lo que afirman es una violación de la Ley de privacidad de información biométrica del estado, actualmente la única ley de este tipo en UU., lo que podría hacer que Facebook sea responsable de hasta $5000 por usuario afectado o [$35 mil millones en total](https://arstechnica.com/tech-policy/2019/10/35-billion-facial-recognition-lawsuit-against -facebook-avanzando-adelante/). (En respuesta, Facebook ha dejado de sugerir etiquetas para las fotos de forma predeterminada.) La [base de datos de reconocimiento facial del FBI] (https://www.gao.gov/assets/700/699489.pdf) incluye fotografías policiales, el directorio completo de fotografías de visas y pasaportes del Departamento de Estado y fotografías de los Departamentos. de vehículos motorizados en al menos 22 estados (y contando) que permitieron a la agencia escanear las licencias de conducir de los residentes sin su consentimiento. (En Utah, Vermont y Washington, donde los inmigrantes indocumentados pueden conducir legalmente, los DMV han [compartido datos de reconocimiento facial con el Servicio de Inmigración y Control de Aduanas] (https://www.washingtonpost.com/technology/2019/07/07/fbi- ice-find-state-drivers-license-photos-are-gold-mine-facial-recognition-searches/). Si ha logrado mantenerse fuera de la base de datos del FBI hasta ahora, eso puede volverse más difícil en octubre de 2020 , cuando los estadounidenses en 47 estados deberán mostrar un pasaporte o una nueva [licencia de conducir con identificación real] (https://www.tsa.gov/real-id) que cumpla con los requisitos federales para abordar cualquier vuelo nacional. Todo esto sería bastante molesto en un mundo con una seguridad de datos perfecta o en un mundo en el que podría obtener una nueva cara tan fácilmente como su banco reemplaza una tarjeta de débito robada. Pero no vivimos en ninguno de esos mundos, y las caras ya han sido pirateadas. En junio, la Oficina de Aduanas y Protección Fronteriza de EE. UU. anunció que [los piratas informáticos habían violado los servidores de uno de sus subcontratistas] (https://www.vice.com/en_us/article/qv7zxx/perceptics-license-plate-readers-hacked) y datos faciales de viajeros robados, algunos de los cuales supuestamente [aparecieron en la web oscura] (https://www.vice.com/en_us/article/43j5wm/here-are-images-of-drivers-hacked-from-a -us-border-protection-contratista-on-the-dark-web-perceptics). Sin embargo, a pesar de muchos escándalos más dignos, ninguno causó tanta histeria en 2019 como [FaceApp] (https://www.thecut.com/2019/07/celebrity-faceapp-age-viral-trend.html). En julio, todos tus amigos, además de Snooki, los Jonas Brothers y Lebron James, compartieron fotos tomadas con la herramienta de procesamiento de imágenes, que se volvió viral al hacer que los usuarios parecieran personas mayores. Pero se produjo el pánico cuando leyeron el [acuerdo de términos de uso] despiadado de FaceApp (https://www.faceapp.com/terms). (“Usted otorga a FaceApp una licencia sublicenciable perpetua, irrevocable, no exclusiva, libre de regalías, mundial, totalmente pagada y transferible para usar, reproducir, modificar, adaptar, publicar, traducir, crear trabajos derivados, distribuir, realizar públicamente y mostrar su Contenido de usuario y cualquier nombre, nombre de usuario o similar proporcionado en relación con su Contenido de usuario en todos los formatos de medios y canales ahora conocidos o desarrollados posteriormente, sin compensación para usted") Y luego se produjo aún más pánico cuando descubrieron que FaceApp tiene su sede en [St. Petersburgo, Rusia] (https://www.washingtonpost.com/technology/2019/07/18/heres-what-we-know-about-russian-company-behind-faceapp/). ¿Vladimir Putin había engañado a Estados Unidos nuevamente, esta vez para que entregara los escurridizos datos faciales de sus personas influyentes? No, o al menos probablemente no. FaceApp [negó que la empresa comparta datos con terceros] (https://techcrunch.com/2019/07/17/faceapp-responds-to-privacy-concerns/), y afirmó que la mayoría de las imágenes de los usuarios se eliminan dentro de las 48 horas, que parecía calmar los temores. Pero si FaceApp decidiera subir las apuestas y pasar al reconocimiento facial, no sería la primera empresa en hacerlo: la aplicación de gestión de fotos EverRoll se lanzó en 2012 y recopiló 13 mil millones de imágenes en las que los usuarios se habían etiquetado a sí mismos y a sus amigos. La empresa matriz de EverRoll, que recientemente se rebautizó como Paravision, descontinuó la aplicación en 2016 y [utilizó esas imágenes para entrenar su software de reconocimiento facial] (https://fortune.com/longform/facial-recognition/), que ahora está clasificada como la [No. 3 algoritmo más preciso probado por NIST] (https://www.nist.gov/programs-projects/frvt-11-verification) y se [vende a las fuerzas del orden] (https://fortune.com/longform/facial- reconocimiento/). El peor de los casos para el reconocimiento facial podría parecerse a [el próximo “sistema de crédito social” de China](https://www.wired.co.uk/article/china-social-credit-system- explicó) Cuando el sistema esté completamente operativo el próximo año, el gobierno utilizará todos los métodos de vigilancia a su disposición, incluido el reconocimiento facial y 200 millones de cámaras, para rastrear el comportamiento de los ciudadanos y asignarles a cada uno de ellos un puntaje social, que tendrá una variedad de consecuencias. Las infracciones como cruzar la calle imprudentemente y comprar demasiados videojuegos podrían dificultar el alquiler de un apartamento o la obtención de un préstamo de un banco. Eso probablemente no sea probable en los EE. UU., pero un tipo de vigilancia más común es casi inevitable. Tal vez ya esté aquí. El reconocimiento facial comercial ha existido durante años, pero dado que no hay leyes que exijan que alguien revele que lo está usando, es imposible decir qué tan extendido está. Lo que significa que cualquier cámara que pase podría estar reconociendo su rostro. Entre los muchos proveedores que ofrecen software comercial de reconocimiento facial se encuentra Face-Six, una empresa con sede en Tel Aviv fundada por Moshe Greenshpan en 2012 después de [Skakash](https:/ /www.broadwayworld.com/bwwtv/article/Celebrity-Face-Recognition-iPhone-App-Now-Available-for-TV-Viewers-20130207), una aplicación móvil que estaba desarrollando y que habría identificado a actores en películas y programas de televisión. , no logró atraer inversores. Greenshpan dice que ahora atiende a más de 500 clientes en todo el mundo, ofreciendo una variedad de productos personalizados, que incluyen FA6 Retail (para evitar hurtos) , FA6 Class (para tomar asistencia en las escuelas), [FA6 Med](https://www.face-six.com/ identificación del paciente/) (para uso en hospitales para verificar la identidad de los pacientes y evitar errores de tratamiento) y FA6 Drone (que “identifica delincuentes, personas desaparecidas, y civiles desde la cámara de un dron”, y que está disponible “para usos gubernamentales y privados”). Pero el producto más controvertido de Greenshpan ha sido Churchix, que vende a iglesias que quieren hacer un seguimiento de los feligreses que asisten a misa. Churchix atrajo una cobertura negativa cuando se lanzó en 2015, parte de la cual está vinculada al [sitio web de la empresa] (https://churchix.com/press-room/). “Al principio, toda la prensa era buena prensa”, dice Greenshpan. “Realmente necesitas explicarle a la gente por qué el reconocimiento facial es más bueno que malo. Las iglesias administran la asistencia manualmente, pero cuando proporcionamos una herramienta eficiente que lo hace automáticamente, de repente surgen preocupaciones”. ¿Y si esas preocupaciones incluyen la transparencia? “No sabemos qué hacen todos y cada uno de los clientes con nuestro software”, dice Greenshpan, “pero por lo general las iglesias [que usan Churchix] no se lo dicen a sus miembros”. Pero Greenshpan me conecta con David Weil, fundador de the Warehouse, un centro recreativo extracurricular y parque de patinetas en Bloomington, Indiana, que [usa el software de Face-Six en dos dispositivos de seguridad cámaras] (https://www.youtube.com/watch?v=xbGoCdBqfEk), para un propósito extremadamente específico: "Nuestro edificio tiene cinco acres bajo un mismo techo, y hay más de 200 agresores sexuales registrados en el área", dice Bien. “Entonces, con tanto espacio y tantos pedófilos, este software realmente nos ayudó”. Cuando los visitantes ingresan al edificio, las cámaras escanean sus rostros y el software de Face-Six los busca en una base de datos proporcionada por la oficina del alguacil local. Según Weil, el Almacén tuvo 72,000 visitas en 2018 y el reconocimiento facial logró mantener alejados a dos delincuentes sexuales: “Simplemente les dijimos cortésmente: ‘Somos un centro juvenil. No tienes permitido estar aquí’”, dice. “Tenía una identificación falsa, pero el caballero fue muy comprensivo con la situación”. Entre otras formas en las que sabemos que el reconocimiento facial ya se está implementando: las aerolíneas lo están usando para reemplazar las tarjetas de embarque, y el Departamento de Seguridad Nacional dice que planea usar el reconocimiento facial en [el 97 por ciento de los pasajeros de las aerolíneas para 2022] (https:// www.theverge.com/2019/4/18/18484581/us-airport-facial-recognition-departing-flights-biometric-exit). Y al menos tres estadios han experimentado con la tecnología, [incluido el Madison Square Garden] (https://www.nytimes.com/2018/03/13/sports/facial-recognition-madison-square-garden.html). En las paradas de la reciente gira Reputation de Taylor Swift, [se escanearon los rostros de los fans](https://www.theguardian.com/technology/2019/feb/15/how-taylor-swift-showed-us-the-scary-future -of-facial-recognition?CMP=fb_a-technology_b-gdntech) y buscó en una base de datos de sus cientos de acosadores conocidos. El año pasado, residentes de un complejo de apartamentos en Brownsville protestaron cuando descubrió que el propietario quería usar el reconocimiento facial para complementar sus llaveros, pero se sabe que otros edificios de la ciudad lo han usado durante años, incluidos los 12 que conforman el [complejo Knickerbocker Village] (https://www.wired .com/story/cities-examine-proper-improper-facial-recognition/) en el Lower East Side. Algunos sistemas de portero virtual también lo incluyen. Al menos ocho distritos escolares públicos en los EE. UU. han instalado sistemas de reconocimiento facial para detectar estudiantes suspendidos y cualquier otra persona prohibida. del recinto escolar. Los minoristas usan el reconocimiento facial para evitar robos, y algunos programas incluso vienen con bases de datos de ladrones conocidos, pero no muchas tiendas lo admitirán. El año pasado, la ACLU preguntó a 20 de las principales cadenas minoristas si utilizan el reconocimiento facial, incluidas Best Buy, Costco, Target y Walmart, y solo recibió dos respuestas: del conglomerado de comestibles Ahold Delhaize, cuyas marcas incluyen Food Lion y Stop & Shop. que no lo usa, y de la cadena de hardware Lowe's, que probó el reconocimiento facial en el pasado, pero desde entonces se detuvo. Los minoristas no necesitan ejecutar un software de reconocimiento facial en sus instalaciones para beneficiarse de él. Apple niega usar la tecnología en sus tiendas físicas, pero en un incidente confuso el año pasado, un [adolescente de Nueva York fue arrestado] (https://www.washingtonpost.com/technology/2019/04/23/teen -sues-apple-billion-blames-facial-recognition-stores-his-arrest/) y acusado de robar en múltiples Apple Stores cuando la policía dijo que fue identificado por reconocimiento facial. Aparentemente, Apple emplea a una empresa externa llamada [Especialistas en la industria de la seguridad] (https://www.theverge.com/tech/2019/4/23/18512942/apple-lawsuit-facial-recognition-nypd-1-billion-theft) en algunos lugares; El SIS pudo haber ejecutado un software de reconocimiento facial en las imágenes de vigilancia capturadas dentro de las tiendas Apple de las que supuestamente el adolescente robó. (Se retiraron los cargos en su contra cuando un detective de la policía de Nueva York se dio cuenta de que no se parecía en nada al sospechoso en las imágenes de los robos. En abril, el adolescente demandó a Apple y al SIS por mil millones de dólares). El reconocimiento facial pronto podría ser más valioso para los minoristas de otras maneras. . Una posibilidad probable es que algunos eliminen las filas para pagar haciendo que los clientes paguen con la cara. Otro es usar el reconocimiento facial para dirigirse a las personas con más probabilidades de comprar cosas al rastrear sus hábitos de compra en persona de la misma manera que las cookies rastrean los nuestros en línea, o tal vez, eventualmente, usar lo que saben sobre nosotros mismos virtuales para dirigirnos hacia productos en el mundo real. Si alguna vez te asustó un anuncio sorprendentemente bien orientado que se te mostró en Facebook o Instagram, imagina que te ayuda un empleado minorista que sabe lo que hay en tu historial web. Pero, ¿y si no eres la persona que el reconocimiento facial dice que eres? El año pasado, la ACLU usó el software de reconocimiento facial de Amazon, Rekognition, para buscar en una base de datos de 25 000 fotos policiales con fotos de miembros del Congreso y descubrió que [identificó erróneamente a 28 legisladores como delincuentes] (https://www.aclu.org/blog /privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28), incluidos seis miembros del Congreso Negro Caucus, y una prueba similar este verano [confundió a 26 legisladores del estado de California] (https://www .aclunc.org/news/facial-recognition-technology-falsely-identifies-26-california-legislators-mugshots), nuevamente con personas de color sobrerrepresentadas en las coincidencias falsas. Amazon dice que la ACLU [tergiversó intencionalmente su software] (https://www.fastcompany.com/90389905/aclu-amazon-face-recognition-falsely-matched-ca-lawmakers) al establecer su umbral de confianza demasiado bajo: la compañía recomienda que la policía actúa solo en los partidos en los que el sistema expresa al menos un 99 por ciento de confianza, pero no hay nada que impida que la policía haga lo mismo. “No tiene dientes”, dice Jacob Snow, el abogado de tecnología y libertades civiles de la ACLU que realizó las pruebas. “Amazon podría decirle a las fuerzas del orden: ‘Vamos a establecer el umbral de confianza en el 99 por ciento y no pueden cambiarlo’. Pero no lo van a hacer”. La piel oscura no es lo único en lo que falla el reconocimiento facial. En [las pruebas de NIST] (https://nvlpubs.nist.gov/nistpubs/ir/2018/NIST.IR.8238.pdf), descubrió que incluso los algoritmos de mayor rendimiento tenían problemas para identificar fotos de la misma persona a diferentes edades. y, a menudo, no podían distinguir la diferencia entre gemelos, no solo gemelos idénticos, sino también mellizos del mismo sexo. Y el rendimiento depende de la claridad de las fotos que se utilicen. El NIST comparaba principalmente fotografías policiales de alta calidad con otras fotografías policiales de alta calidad, pero en condiciones reales, con fotografías de vigilancia borrosas tomadas en malos ángulos por cámaras que pueden haber sido configuradas incorrectamente, los resultados pueden variar. ¿Qué pasa si no eres la persona que el reconocimiento facial dice que eres? Incluso un sistema de reconocimiento facial con bajas tasas de error puede causar problemas cuando se implementa a gran escala. Durante seis pruebas recientes del sistema de reconocimiento facial de la policía de Londres, que escaneó los rostros de personas en la vía pública en busca de sospechosos buscados, [se hicieron 42 coincidencias, pero solo se verificó que ocho eran correctas] (https://news.sky .com/story/met-polices-facial-recognition-tech-has-81-error-rate-independent-report-says-11755941) (Finalmente se confirmó que 30 coincidencias eran identificaciones erróneas, y cuatro de las 42 personas desaparecieron entre la multitud antes de que los oficiales pudieran hacer contacto). Debido a que escanearon miles de rostros en total, la policía de Londres dijo que su tasa de error fue del 0,1 por ciento, pero la mayoría de los titulares diferían: [EL RECONOCIMIENTO FACIAL DE LA POLICÍA DE LONDRES FALLA EL 80 % DEL TIEMPO Y DEBE DETENERSE AHORA] (https://www. forbes.com/sites/thomasbrewster/2019/07/04/london-police-facial-recognition-fails-80-of-the-time-and-must-stop-now/#1fd5b945bf95), dijo uno. La policía también ha sido sorprendida tomando licencia creativa con la tecnología. Un informe publicado en mayo por el Centro de Privacidad y Tecnología de la Universidad de Georgetown encontró que seis departamentos en los EE. UU. permiten a los oficiales ejecutar bocetos compuestos de sospechosos a través del software de reconocimiento facial. Ese mismo informe cuenta la historia de un sospechoso que había sido captado por cámaras de vigilancia supuestamente robando cerveza de un CVS en Gramercy Park en 2017, pero el video era de baja calidad y no se devolvieron coincidencias útiles. Sin embargo, un detective notó que el hombre se parecía a Woody Harrelson, por lo que realizó una búsqueda utilizando una imagen del actor, lo que finalmente condujo a un arresto. "La persona que terminaron investigando era la décima persona en la lista de candidatos", dice Clare Garvie de Georgetown Law, autora del informe, "lo que significa que el algoritmo pensó que otras nueve personas [en la base de datos de fotos policiales de la policía de Nueva York] se veían más como Woody Harrelson. Si puede poner a la persona A en un algoritmo y encontrar a la persona B, ¿por qué eso no prueba que si está buscando a la persona B, podría encontrar accidentalmente a la persona A? Forzaron intencionalmente una identificación errónea como una técnica de investigación válida”. La portavoz de la policía de Nueva York, Devora Kaye, señala que este caso fue "solo una de las más de 5300 solicitudes" al FIS en 2017. La policía de Nueva York, dice, solo usa el reconocimiento facial como herramienta de investigación y no arresta ni detiene a sospechosos cuyas identidades no han sido identificadas. sido corroborado por otros medios. “Una coincidencia de reconocimiento facial es una pista. Nunca nadie ha sido arrestado únicamente sobre la base de una coincidencia de computadora, sin importar cuán convincente sea”. Si la historia de Larry Griffin II tipifica el mejor uso del reconocimiento facial para las fuerzas del orden, Kaitlin Jackson, abogada defensora pública de [Bronx Defenders] (https://www.bronxdefenders.org/staff/kaitlin-jackson/), me dice uno que expone sus inconvenientes. Jackson representó a un hombre que había sido arrestado por el robo de calcetines de un T.J. Tienda Maxx en febrero de 2018, supuestamente después de blandir un cortador de cajas a un guardia de seguridad. “Mi cliente fue detenido meses después del robo, y la única forma en que descubrí que se usó el reconocimiento facial fue que simplemente comencé a llamar al fiscal y le dije: ‘¿Cómo diablos decidiste meses después que era mi cliente? No hay análisis forense’”, dice ella. “Resultó que la policía fue a T.J. Seguridad de Maxx y dijo: "Queremos sacar el [video] de vigilancia, vamos a ejecutarlo a través del reconocimiento facial", por lo que ya le estaban dando pistas de que cualquier sospechoso habría sido elegido por reconocimiento facial. Y luego le enviaron un mensaje de texto al guardia de seguridad con una sola foto que él sabe que se ha pasado por el reconocimiento facial, y dijeron: "¿Es esta la persona?" Ese es el procedimiento más sugerente que puedas imaginar. Y luego hacen el arresto y dicen que se basa en una identificación de [testigo ocular], y tratan de ocultar que se trata de un caso de reconocimiento facial”. (La policía de Nueva York dijo que el acusado había cometido un robo en la misma tienda antes y dijo que el guardia de seguridad lo conocía "por interacciones anteriores". El detective del caso le mostró una imagen con la esperanza de que "pusiera un nombre a una cara", dijo el departamento en una presentación legal). El cliente de Jackson tenía al menos dos líneas de defensa: tiene un hermano gemelo, que podría haber desencadenado la coincidencia de reconocimiento facial, aunque Jackson tampoco cree que el gemelo robó calcetines, pero más importante , su esposa estaba de parto en el momento del robo y él estaba en la sala de partos. “Teníamos fotos de ellos en el hospital y su nombre estaba en el certificado de nacimiento”, dice Jackson. Pero la fiscalía no desestimó el caso, en parte, sospecha ella, porque tienen una "fe inquebrantable en que el software no se equivoca". Su único recurso, dijo, sería argumentar: “Tal vez se fue unos minutos antes de que naciera su bebé y salió corriendo a buscar calcetines y luego regresó”. Jackson dice que su cliente pasó la mitad del año pasado en prisión. “Estaba en libertad condicional cuando fue arrestado. Así que nuestro verdadero problema era la forma en que interactúan todos estos sistemas. Libertad condicional presentó una suspensión, y no retiraron la retención debido a este caso, y la fiscalía no desestimó este caso. Y finalmente [la fiscalía] le ofreció algo que lo sacaría de la cárcel. Así que hizo lo que muchos de nosotros haríamos: se declaró culpable de algo que no hizo”. Pero el reconocimiento facial es más que solo quién eres, qué compraste, los delitos que cometiste o no, y si tu parecido con un delincuente sexual hará que sea difícil encontrar lugares para patineta: también se trata de cómo te sientes. Porque otra cosa que la tecnología puede hacer, o al menos supuestamente hacer, es detectar emociones. Amazon, IBM, Microsoft y otros afirman que su software puede adivinar qué emoción estás sintiendo en función de tus expresiones faciales o, en algunos casos, [microexpresiones] (https://en.wikipedia.org/wiki/Lie_to_Me), bajo la Es lógico que incluso si intenta ocultar sus sentimientos, ciertos músculos faciales están fuera de su control. Amazon, por ejemplo, dice que Rekognition puede inferir si un rostro expresa [felicidad, tristeza, ira, confusión, disgusto, sorpresa, calma o miedo] (https://docs.aws.amazon.com/rekognition/latest/dg /API_Emotion.html?ascsubtag=[]in[p]ck2v0oszv000ponyenxurdvlm&tag=thestrategistsite-20 ), aunque la documentación advierte que los resultados "no son una determinación del estado emocional interno de una persona y no deben usarse de esa manera", y que “una persona que finge tener una cara triste podría no estar triste emocionalmente”. Otros proveedores tienen más confianza en sus habilidades para leer el estado de ánimo. La empresa emergente con sede en Londres RealEyes comercializa un servicio para anunciantes que escanea los rostros de las personas a través de las cámaras web de sus computadoras para medir su nivel de atención y emociones mientras miran comerciales. La empresa con sede en Utah Hirevue afirma que su software puede analizar entrevistas de trabajo en video para juzgar los rasgos de personalidad y eliminar candidatos desinteresados. (Los [clientes] de Hirevue (https://www.hirevue.com/customers) incluyen Dunkin' Donuts, Staples y Urban Outfitters). [En su sitio web] (https://www.kairos.com/legendary), el la empresa de reconocimiento facial Kairos se jacta del trabajo que realizó para Legendary Pictures midiendo las reacciones de los miembros de la audiencia en las proyecciones de prueba de películas: “Se registraron más de 450 000 mediciones emocionales por minuto durante la proyección de películas preliminares, para un total de alrededor de 100 millones de mediciones faciales. procesados en total.” Kairos dice que Legendary usó esos datos para determinar qué partes de las películas funcionaron mejor en los anuncios, identificar "los datos demográficos con más probabilidades de compartir tráileres" y asegurarse de que las películas de Legendary fueran "atractivas para el público general, así como para los fans demográficos". Ni Kairos ni Legendary Pictures confirmaron qué películas estaban involucradas, pero la directora ejecutiva de Kairos, Melissa Doval, dice que las proyecciones probablemente ocurrieron en 2013 o 2014, y hay una imagen de la película de Superman de 2013 [Man of Steel] (https://www.vulture. com/2013/06/movie-review-man-of-steel.html) en el sitio web de Kairos. Sin embargo, es posible que sus tics faciales no necesariamente le hagan perder ningún trabajo o le den una impresión equivocada sobre su gusto por las películas de superhéroes, porque es posible que el software de detección de emociones realmente no funcione. En julio, un grupo de cinco importantes psicólogos publicó un informe en Psychological Science in the Public Interest, que citaba más de 1,000 otros artículos de revistas y descubrió que las expresiones faciales son más complejas de lo que el software les da crédito: "No es posible inferir con confianza la felicidad de una sonrisa, la ira de un ceño fruncido o la tristeza de un ceño fruncido, como lo intenta gran parte de la tecnología actual". hacer al aplicar lo que erróneamente se cree que son hechos científicos”. En última instancia, lo más preocupante del reconocimiento facial podría ser lo accesible que es. Porque no solo está disponible para gobiernos y corporaciones, también está a la venta para usted, para mí, para su arrendador, pervertidos al azar y cualquier otra persona con una cámara y una computadora, y por un precio más económico de lo que probablemente esperaría: Rekognition de Amazon, por ejemplo. , ofrece una prueba gratuita de un año que le permite identificar rostros en 5000 imágenes o 1000 minutos de video por mes (y después de eso, es un centavo por cada diez fotos o diez centavos por minuto de video). Si ninguno de los paquetes de software comercial se adapta a sus necesidades particulares, resulta bastante fácil, si sabe lo que está haciendo, implementar su propia aplicación de reconocimiento facial utilizando [código de código abierto] disponible gratuitamente ( https://opencv.org/). Vi un tutorial de YouTube en el que un programador creó su propio sistema de reconocimiento facial que podía [distinguir entre su rostro y el del elenco de Game of Thrones] (https://www.youtube.com/watch?v=PmZ29Vta7Vc). No es difícil imaginar aplicaciones más siniestras. Esta primavera, un desarrollador afirmó en las redes sociales chinas que había utilizado el reconocimiento facial y fotos disponibles públicamente de Facebook e Instagram para [identificar a 100 000 mujeres en videos porno amateur] (https://www.vice.com/en_us/article/ 9kxny7/diy-facial-recognition-for-porn-weibo). No compartió ninguna prueba y puede haber estado mintiendo, pero dadas todas las otras cosas aparentemente increíbles sobre el reconocimiento facial que ahora sabemos que son ciertas, tal vez no lo era. Quería experimentar yo mismo, así que compré un Tend Insights Lynx Indoor 2, un pequeño y barato pero [bien revisado](https: //www.yahoo.com/lifestyle/60-home-security-camera-facial-recognition-rivals-299-one-heres-013930138.html) cámara de seguridad para el hogar que viene con su propio software de reconocimiento facial. Funcionó bien para lo que hizo, que en mi caso no fue mucho: coloqué la cámara en mi escritorio, la conecté a mi red Wi-Fi, descargué la aplicación complementaria para iPhone y cargué una foto mía para que supiera qué Me veía como. Salí de mi apartamento, y en unos minutos cuando regresé, Lynx envió una notificación automática a mi teléfono para decirme que estaba en casa, junto con un breve video como prueba. Puede que no suene como $60 bien gastados, pero fue un pequeño precio por una sensación de control que tal vez nunca más volvería a tener: después de la prueba inaugural de mi sistema de reconocimiento facial doméstico, lo desconecté y lo guardé en un cajón.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf