Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 107: Des entreprises technologiques chinoises auraient développé la reconnaissance faciale pour identifier les personnes par race, ciblant les musulmans ouïghours

Traduit par IA
Description:
Traduit par IA
Plusieurs entreprises chinoises ont été révélées par des demandes de brevets comme ayant développé une reconnaissance faciale capable de détecter les personnes en fonction de leur origine ethnique, ce qui, selon les critiques, permettrait la persécution et la discrimination des musulmans ouïghours.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Huawei , Megvii , SenseTime , Alibaba et Baibu developed an AI system deployed by none, which harmed Uyghur people.

Statistiques d'incidents

ID
107
Nombre de rapports
2
Date de l'incident
2018-07-20
Editeurs
Sean McGregor, Khoa Lam
Applied Taxonomies
GMF, MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Pre-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceAlibaba "consterné" par l'algorithme de détection d'ethnicité de son unité cloud - TechCrunchUn groupe de surveillance expose un brevet inquiétant de Huawei pour la détection des Ouïghours alimentée par l'IA
Alibaba "consterné" par l'algorithme de détection d'ethnicité de son unité cloud - TechCrunch

Alibaba "consterné" par l'algorithme de détection d'ethnicité de son unité cloud - TechCrunch

techcrunch.com

Un groupe de surveillance expose un brevet inquiétant de Huawei pour la détection des Ouïghours alimentée par l'IA

Un groupe de surveillance expose un brevet inquiétant de Huawei pour la détection des Ouïghours alimentée par l'IA

thenextweb.com

Alibaba "consterné" par l'algorithme de détection d'ethnicité de son unité cloud - TechCrunch
techcrunch.com · 2020
Traduit par IA

Les géants chinois de la technologie ont suscité des critiques internationales après que des recherches ont montré qu'ils disposaient de technologies permettant aux autorités de profiler les Ouïghours musulmans.

L'unité de cloud computing d…

Un groupe de surveillance expose un brevet inquiétant de Huawei pour la détection des Ouïghours alimentée par l'IA
thenextweb.com · 2021
Traduit par IA

Un brevet Huawei qui mentionne l'identification par l'IA des Ouïghours et d'autres groupes ethniques a été découvert.

Le brevet a été exposé par le groupe de recherche sur la vidéosurveillance IPVM, la même organisation qui avait précédemme…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Argentinian City Government Deployed Teenage-Pregnancy Predictive Algorithm Using Invasive Demographic Data

Argentinian City Government Deployed Teenage-Pregnancy Predictive Algorithm Using Invasive Demographic Data

Apr 2018 · 4 rapports
Microsoft’s Algorithm Allegedly Selected Photo of the Wrong Mixed-Race Person Featured in a News Story

Microsoft’s Algorithm Allegedly Selected Photo of the Wrong Mixed-Race Person Featured in a News Story

Jun 2020 · 12 rapports
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Argentinian City Government Deployed Teenage-Pregnancy Predictive Algorithm Using Invasive Demographic Data

Argentinian City Government Deployed Teenage-Pregnancy Predictive Algorithm Using Invasive Demographic Data

Apr 2018 · 4 rapports
Microsoft’s Algorithm Allegedly Selected Photo of the Wrong Mixed-Race Person Featured in a News Story

Microsoft’s Algorithm Allegedly Selected Photo of the Wrong Mixed-Race Person Featured in a News Story

Jun 2020 · 12 rapports
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178