Incidentes Asociados
Clearview AI ha acumulado una base de datos de más de 3.000 millones de fotos de personas extrayendo sitios como Facebook, Twitter, Google y Venmo. Es más grande que cualquier otra base de datos de reconocimiento facial conocida en los EE. UU., incluida la del FBI. La compañía de Nueva York utiliza algoritmos para mapear las imágenes que almacena, determinando, por ejemplo, la distancia entre los ojos de un individuo para construir una "huella facial".
Esta tecnología atrae a los organismos encargados de hacer cumplir la ley en todo el país, que pueden usarla en tiempo real para ayudar a determinar las identidades de las personas.
También ha llamado la atención de los defensores y activistas de las libertades civiles, quienes alegan en una demanda presentada el martes que el raspado automático de sus imágenes por parte de la empresa y la extracción de su información biométrica única violan la privacidad y congelan el discurso y la actividad políticos protegidos.
Los demandantes, cuatro activistas individuales de las libertades civiles y los grupos Mijente y NorCal Resist, alegan que Clearview AI “participa en la recopilación generalizada de imágenes e información biométrica de los residentes de California sin previo aviso ni consentimiento”.
Esto es especialmente importante, argumentan los demandantes, para los defensores de la inmigración o la reforma policial, cuyo discurso político puede ser crítico con la aplicación de la ley y que pueden ser miembros de comunidades históricamente vigiladas en exceso y objetivo de tácticas de vigilancia.
Clearview AI mejora los esfuerzos de los organismos encargados de hacer cumplir la ley para monitorear a estos activistas, así como a los inmigrantes, las personas de color y aquellos percibidos como "disidentes", como los activistas de Black Lives Matter, y como resultado puede potencialmente desalentar su participación en el discurso político protegido. dicen los demandantes.
La demanda, presentada en el Tribunal Superior del Condado de Alameda, es parte de un esfuerzo creciente para restringir el uso de la tecnología de reconocimiento facial. Las ciudades del Área de la Bahía, incluidas San Francisco, Oakland, Berkeley y Alameda, han liderado ese cargo y estuvieron entre las primeras en los EE. UU. en limitar el uso del reconocimiento facial por parte de las fuerzas del orden locales en 2019.
Sin embargo, el impulso llega en un momento en que las expectativas de privacidad de los consumidores [son bajas] -de-control-sobre-su-información-personal/), ya que muchos han llegado a ver el uso y la venta de información personal por parte de empresas como Google y Facebook como algo inevitable de la era digital.
A diferencia de otros usos de información personal, el reconocimiento facial presenta un peligro único, dijo Steven Renderos, director ejecutivo de MediaJustice y uno de los demandantes individuales en la demanda. “Si bien puedo dejar mi teléfono celular en casa [y] puedo dejar mi computadora en casa si quisiera”, dijo, “una de las cosas que realmente no puedo dejar en casa es mi cara”.
Clearview AI estaba "eludiendo la voluntad de mucha gente" en las ciudades del Área de la Bahía que prohibieron o limitaron el uso del reconocimiento facial, dijo.
Mejorar la capacidad de las fuerzas del orden para identificar y rastrear instantáneamente a las personas es potencialmente escalofriante, argumentan los demandantes, y podría inhibir a los miembros de sus grupos o a los californianos en general de ejercer su derecho constitucional a protestar.
“Imagínese miles de policías y agentes de ICE en todo el país con la capacidad de saber instantáneamente su nombre y trabajo, ver lo que ha publicado en línea, ver cada foto pública de usted en Internet”, dijo Jacinta González, estudiante de último año. organizador de campaña en Mijente. “Esta es una pesadilla de vigilancia para todos nosotros, pero es la mayor pesadilla para los inmigrantes, las personas de color y todos los que ya son un objetivo para las fuerzas del orden”.
Los demandantes buscan una orden judicial que obligaría a la empresa a dejar de recopilar información biométrica en California. También buscan la eliminación permanente de todas las imágenes y datos biométricos o información personal en sus bases de datos, dijo Sejal R. Zota, director legal de Just Futures Law y uno de los abogados que representan a los demandantes en la demanda. Los demandantes también están representados por Braunhagey & Borden.
“Nuestros demandantes y sus miembros se preocupan profundamente por la capacidad de controlar sus identificadores biométricos y poder continuar participando en un discurso político que critique a la policía y la política de inmigración sin la amenaza de vigilancia clandestina e invasiva”, dijo Zota. “Y California tiene una Constitución y leyes que protegen estos derechos”.
En un comunicado el martes, Floyd Abrams, abogado de Clearview AI, dijo que la compañía “cumple con todas las leyes aplicables y su conducta está totalmente protegida por la Primera Enmienda”.
No es la primera demanda de este tipo: la Unión Estadounidense de Libertades Civiles está demandando a Clearview AI en Illinois por presuntamente violar la [privacidad biométrica] del estado (https://www.theverge.com/2020/5/28/21273388/aclu- ley clearview-ai-lawsuit-facial-recognition-database-illinois-biometric-laws). Pero es una de las primeras demandas presentadas en nombre de activistas y organizaciones de base “para quienes es vital”, dijo Zota, “poder continuar participando en un discurso político que es crítico con la policía, crítico con la inmigración. política."
Clearview AI también enfrenta un escrutinio internacional. En enero, la Unión Europea dijo que el procesamiento de datos de Clearview AI viola el Reglamento General de Protección de Datos. El mes pasado, el comisionado de privacidad de Canadá, Daniel Therrien, calificó los servicios de la compañía como “ilegales” y dijo equivalían a una vigilancia masiva que ponía a toda la sociedad “continuamente en una alineación policial”. Exigió que la empresa eliminara las imágenes de todos los canadienses de su base de datos.
Clearview AI ha visto una adopción generalizada de su tecnología desde su fundación en 2017. El director ejecutivo Hoan Ton-That [dijo en agosto] (https://www.theverge.com/2020/8/26/21402978/clearview-ai-ceo -interview-2400-police-agencies-facial-recognition) que más de 2400 agencias de aplicación de la ley estaban utilizando los servicios de Clearview. Después de los disturbios de enero en el Capitolio de los EE. UU., la compañía vio un aumento del 26 % en el uso de la tecnología por parte de las fuerzas del orden, [Ton-That said](https://www.latimes.com/business/technology/story/2021-02 -04/facial-recognition-surveillance-capitol-riot-black-and-brown-communities).
La compañía continúa vendiendo su tecnología a las agencias policiales de California, así como al Servicio de Inmigración y Control de Aduanas, según la demanda, a pesar de varias prohibiciones locales sobre el uso del reconocimiento facial.
La ordenanza de San Francisco que limita el uso del reconocimiento facial cita específicamente la propensión de la tecnología a “poner en peligro los derechos civiles y las libertades civiles” y “exacerbar la injusticia racial”.
Los estudios han demostrado que la tecnología de reconocimiento facial no logra identificar a las personas de color. Un [estudio federal de 2019](https://www.washingtonpost.com/technology/2019/12/19/federal-study-confirms-racial-bias-many-facial-recognition-systems-casts-doubt-their-expanding -use/) concluyó que las personas negras y asiáticas tenían aproximadamente 100 veces más probabilidades de ser identificadas erróneamente por reconocimiento facial que las personas blancas. Ahora hay al menos dos casos conocidos de personas negras que fueron identificadas erróneamente por la tecnología de reconocimiento facial, lo que llevó a su [arresto injusto] (https://www.aclu.org/letter/aclu-michigan-complaint-re-use-facial -reconocimiento).
Ton-That le dijo previamente a The Times que un estudio independiente mostró que Clearview AI no tenía prejuicios raciales y que no había casos conocidos de la tecnología que condujeran a un arresto injusto.
Sin embargo, la ACLU ha cuestionado previamente el estudio, diciendo específicamente que es "altamente engañoso” y que su afirmación de que el sistema es imparcial “demuestra que Clearview simplemente [no entiende] (https://www.buzzfeednews.com/article/carolinehaskins1/clearview-ai-facial-recognition-accurate-aclu-absurd) los daños de su tecnología en manos de las fuerzas del orden”.
Renderos dijo que hacer que el reconocimiento facial sea más preciso no lo hace menos dañino para las comunidades de color u otros grupos marginados.
“Esta no es una herramienta que existe en el vacío”, dijo. “Está colocando esta herramienta en instituciones que tienen una capacidad demostrada para perfilar racialmente comunidades de color, personas negras en particular... La herramienta más neutral, más precisa y más efectiva: en qué será más efectiva haciendo es ayudar a las fuerzas del orden público a seguir vigilando en exceso y arrestando y encarcelando en exceso a los negros, los pueblos indígenas y las personas de color”.