Incident 260: Le logiciel de vérification opaque du DHS américain s'appuierait sur des données de mauvaise qualité et serait discriminatoire à l'égard des immigrants.
Description: Le logiciel ATLAS des services de citoyenneté et d’immigration des États-Unis (USCIS) utilisé pour examiner les demandes d’immigration a été condamné par des groupes de défense comme une menace pour les citoyens naturalisés en raison de son processus décisionnel algorithmique secret, de son recours à des données de mauvaise qualité et à des sources inconnues, et de la discrimination présumée des immigrants utilisant des informations biométriques et sensibles.
Entités
Voir toutes les entitésAlleged: US Citizenship and Immigration Services developed an AI system deployed by US Department of Homeland Security et US Citizenship and Immigration Services, which harmed US naturalized citizens , US immigrants , US citizenship applicants et US immigration applicants.
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
1.1. Unfair discrimination and misrepresentation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Discrimination and Toxicity
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Rapports d'incidents
Chronologie du rapport

Selon des documents examinés par The Intercept, un logiciel utilisé par le Département de la sécurité intérieure pour scanner les dossiers de millions d'immigrants peut automatiquement signaler aux Américains naturalisés qu'ils pourraient v…

Les citoyens américains peuvent être expulsés du pays sur la base des découvertes d'un algorithme secret. Le Département de la sécurité intérieure utilise un système hébergé par Amazon appelé ATLAS qui analyse des millions de dossiers et pe…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?