Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 260: El opaco software de verificación del Departamento de Seguridad Nacional de EE. UU. supuestamente dependía de datos de baja calidad y discriminaba a los inmigrantes.

Traducido por IA
Descripción:
Traducido por IA
El software ATLAS del Servicio de Ciudadanía e Inmigración de Estados Unidos (USCIS), utilizado para evaluar las solicitudes de inmigración, fue condenado por grupos de defensa como una amenaza para los ciudadanos naturalizados debido a su toma de decisiones algorítmica secreta, su dependencia de datos de baja calidad y fuentes desconocidas, y supuesta discriminación de inmigrantes que utilizan información biométrica y sensible.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: US Citizenship and Immigration Services developed an AI system deployed by US Department of Homeland Security y US Citizenship and Immigration Services, which harmed US naturalized citizens , US immigrants , US citizenship applicants y US immigration applicants.

Estadísticas de incidentes

ID
260
Cantidad de informes
2
Fecha del Incidente
2014-08-26
Editores
Khoa Lam
Applied Taxonomies
GMF, MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

Incident Occurrence+1
Un software federal poco conocido puede desencadenar la revocación de la ciudadanía
Un software federal poco conocido puede desencadenar la revocación de la ciudadanía

Un software federal poco conocido puede desencadenar la revocación de la ciudadanía

theintercept.com

El gobierno de los EE. UU. está utilizando un algoritmo para marcar a los ciudadanos estadounidenses para la desnaturalización: Informe

El gobierno de los EE. UU. está utilizando un algoritmo para marcar a los ciudadanos estadounidenses para la desnaturalización: Informe

gizmodo.com

Un software federal poco conocido puede desencadenar la revocación de la ciudadanía
theintercept.com · 2021
Traducido por IA

El software utilizado por el Departamento de Seguridad Nacional para escanear los registros de millones de inmigrantes puede marcar automáticamente a los estadounidenses naturalizados para potencialmente revocar su ciudadanía en base a crit…

El gobierno de los EE. UU. está utilizando un algoritmo para marcar a los ciudadanos estadounidenses para la desnaturalización: Informe
gizmodo.com · 2021
Traducido por IA

Los ciudadanos estadounidenses pueden ser expulsados del país según los hallazgos de un algoritmo secreto. El Departamento de Seguridad Nacional está utilizando un sistema alojado en Amazon llamado ATLAS que analiza millones de registros y …

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidente AnteriorSiguiente Incidente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178