Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2306

Loading...
El juicio secreto de reconocimiento facial en el aeropuerto de Wellington fue en contra del consejo del Comisionado de Privacidad
stuff.co.nz · 2021

Aviation Security siguió adelante con la prueba de una nueva herramienta de escaneo de reconocimiento facial en el aeropuerto de Wellington, a pesar de las serias preocupaciones del Comisionado de Privacidad.

El juicio secreto de meses de duración, que aún está en curso, utilizó cámaras para escanear los rostros de los pasajeros cuando ingresaban a la fila de seguridad del aeropuerto y nuevamente cuando pasaban por la puerta de embarque.

La policía estuvo bajo una gran presión el año pasado después de que se reveló que estaban utilizando una tecnología de reconocimiento facial similar.

El jefe de operaciones del aeropuerto de Wellington, Matthew Palliser, dice que con los viajes de regreso a los niveles anteriores a Covid, el personal de las diversas empresas con sede en el aeropuerto tiene una gran demanda. (Foto de archivo)

Aviation Security (Avsec) comenzó la prueba en junio de 2021 como una forma de contar cuántos pasajeros pasaban por el control de seguridad y cuánto tiempo pasaban en la fila, después de que Audit NZ descubriera que su proceso manual era inadecuado.

Después de que el Comisionado de Privacidad se opusiera enérgicamente al juicio, AvSec buscó asesoramiento legal por separado sobre si infringió la ley de privacidad y siguió ese consejo en lugar del Comisionado.

La agencia dijo que la tecnología almacena un registro digital asociado con la cara de cada persona solo durante el tiempo que están en la fila y luego lo elimina de inmediato. Dijeron que este registro digital se mantuvo en un servidor de alta seguridad mientras lo tienen.

Las cámaras comprueban cuánto tiempo está la gente en la cola de seguridad. (Foto de archivo).

Pero el comisionado de privacidad, John Edwards, dijo que el impacto en la privacidad superó con creces los beneficios de la tecnología en una serie de cartas concisas, obtenidas bajo la Ley de Información Oficial.

Su oficina argumentó que existía el riesgo de que la herramienta pudiera ser utilizada por otras agencias, como la policía o las agencias de inteligencia, y podría sentar un precedente para un uso más amplio de la tecnología de escaneo facial por parte del gobierno.

El ministro de Aviación Civil, Michael Wood, también está descontento con el juicio y dijo que planeaba hablar con la agencia sobre por qué el juicio no fue más publicitado.

“Dejé en claro mis puntos de vista a principios de este año de que hubiera sido mejor para la Autoridad adelantar el juicio, explicar los motivos y comprometerse a interactuar con las partes interesadas después”, dijo Wood. "Obviamente, todavía hay algunos problemas por resolver y hablaré con la Autoridad de Aviación Civil sobre esto".

Se había colocado un letrero que indicaba a los pasajeros que sus rostros podrían ser escaneados, pero este letrero no era obvio el jueves por la noche. El juicio debe continuar hasta el 21 de octubre.

El director ejecutivo de CAA, Keith Manch, dijo en un comunicado que la agencia se dio cuenta de que el letrero había desaparecido después de que Stuff hiciera consultas. Dijo que la señalización de Covid-19 la había reemplazado, pero que la agencia estaba reinstalando la señal.

Edwards escribió el año pasado que la tecnología era "potencialmente intrusiva e imprecisa" y que la agencia había "saltado a esta solución sin realizar primero un examen exhaustivo de las alternativas y formas menos intrusivas de satisfacer las necesidades comerciales legítimas".

Dijo que también estaba preocupado por el país en el que se había desarrollado la tecnología de reconocimiento facial, aunque esta ubicación fue eliminada de los documentos que se publicaron.

La policía estuvo bajo una fuerte presión el año pasado después de que se reveló que estaban usando una tecnología de reconocimiento facial similar.

"De los documentos se desprende que Avsec no consideró adecuadamente los riesgos inherentes a dicha tecnología, como dónde se desarrolló el software de reconocimiento facial, una evaluación de las caras en las que se probó el software y las tasas de precisión del software". el escribio.

En una carta de octubre de 2020 a la presidenta de la junta de la Autoridad de Aviación Civil, Janice Fredric, Edwards repitió estas preocupaciones y recomendó que el juicio no siguiera adelante, a pesar de que se mitigaron algunos problemas de privacidad.

“Recomiendo a la Junta que la prueba del proyecto no continúe y que Avsec busque una solución alternativa que no involucre la tecnología de reconocimiento facial”, escribió Edwards, y señaló que la prueba podría sentar un precedente que permita a otras agencias gubernamentales usar tal “ tecnología de alto riesgo”.

“Al intercambiar un alto riesgo de privacidad para las personas por un bajo rendimiento en términos de beneficio público, Avsec estaría creando un precedente desafortunado y peligroso si el juicio continuara”, escribió.

Fredric le respondió a Edwards en enero de este año, señalando algunas medidas nuevas destinadas a minimizar el riesgo de privacidad, como la eliminación de fotos en diez minutos y un nuevo grupo de gobierno interno. Pero, dijo, la agencia procedería con el juicio.

También señaló que AvSec se había reunido con el Jefe de la Oficina de Privacidad del Gobierno en el Departamento de Asuntos Internos, quien no creía que el juicio violaría los principios de privacidad, y había recibido asesoramiento legal independiente que encontró que había una "falta de riesgos de privacidad inherentes con el juicio". proyecto".

Edwards respondió diciendo que todavía tenía preocupaciones y que si el juicio continuaba, la agencia debería "hacer planes para el nivel de interés público en el proyecto".

El ministro de Aviación Civil, Michael Wood, no está contento con el juicio.

Sin embargo, AvSec no emitió ningún comunicado de prensa sobre el proyecto y la sección "Qué esperar en el aeropuerto" de su sitio web no lo menciona.

Un portavoz de AvSec dijo que la tecnología era segura y que toda la información biométrica se eliminó casi de inmediato.

“Durante el período en que el pasajero está en la fila (que generalmente dura solo unos minutos), las firmas digitales se mantienen en un servidor de alta seguridad. Una vez que se ha utilizado la firma para contar al pasajero cuando sale del punto de control, esta información se elimina de forma permanente”.

Dijeron que la única base de datos con la que se verificaron las imágenes fue una del personal de AvSec, para asegurarse de que no los estuvieran contando como pasajeros. La tecnología solo se estaba utilizando porque Audit NZ les había dicho que el conteo manual de pasajeros no funcionaba.

Aclaración: esta historia se modificó para señalar que el juicio se retrasó varios meses y comenzó más tarde de lo planeado originalmente.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd