Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 163: Les algorithmes de détection des discours haineux de Facebook auraient échoué de manière disproportionnée à supprimer les contenus racistes envers les groupes minoritaires

Traduit par IA
Description:
Traduit par IA
Les chercheurs de l’entreprise ont découvert que les algorithmes de détection des discours haineux de Facebook sous-estimaient les contenus moins courants mais plus nuisibles, plus souvent rencontrés par les groupes minoritaires tels que les utilisateurs noirs, musulmans, LGBTQ et juifs.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par Facebook, a endommagé Facebook users of minority groups et Facebook users.

Statistiques d'incidents

ID
163
Nombre de rapports
2
Date de l'incident
2021-11-21
Editeurs
Sean McGregor, Khoa Lam
Applied Taxonomies
GMF, MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.2. Exposure to toxic content

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Rapports d'incidents

Chronologie du rapport

Comment Facebook cache à quel point c'est terrible avec le discours de haine+1
Les pratiques aveugles de Facebook autour du discours de haine se sont faites aux dépens des utilisateurs noirs, selon de nouveaux documents
Comment Facebook cache à quel point c'est terrible avec le discours de haine

Comment Facebook cache à quel point c'est terrible avec le discours de haine

wired.com

Les pratiques aveugles de Facebook autour du discours de haine se sont faites aux dépens des utilisateurs noirs, selon de nouveaux documents

Les pratiques aveugles de Facebook autour du discours de haine se sont faites aux dépens des utilisateurs noirs, selon de nouveaux documents

washingtonpost.com

Comment Facebook cache à quel point c'est terrible avec le discours de haine
wired.com · 2021
Traduit par IA

En public, Facebook semble affirmer qu'il supprime plus de 90% des discours de haine sur sa plate-forme, mais dans les communications internes privées, l'entreprise affirme que le chiffre n'est que de 3 à 5%. Facebook veut nous faire croire…

Les pratiques aveugles de Facebook autour du discours de haine se sont faites aux dépens des utilisateurs noirs, selon de nouveaux documents
washingtonpost.com · 2021
Traduit par IA

L'année dernière, des chercheurs de Facebook ont montré aux dirigeants un exemple du type de discours de haine circulant sur le réseau social : un message réel présentant une image de quatre législatrices démocrates connues collectivement s…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Ever AI Reportedly Deceived Customers about FRT Use in App

Ever AI Reportedly Deceived Customers about FRT Use in App

Apr 2019 · 7 rapports
Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Oct 2018 · 1 rapport
Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Sep 2015 · 12 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Ever AI Reportedly Deceived Customers about FRT Use in App

Ever AI Reportedly Deceived Customers about FRT Use in App

Apr 2019 · 7 rapports
Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Oct 2018 · 1 rapport
Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Sep 2015 · 12 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f