Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 374: UK Ofqual's Algorithm Disproportionately Provided Lower Grades Than Teachers' Assessments

Description: UK Office of Qualifications and Examinations Regulation (Ofqual)'s grade-standardization algorithm providing predicted grades for A level and GCSE qualifications in the UK, Wales, Northern Ireland, and Scotland was reportedly giving grades lower than teachers' assessments, and disproportionately for state schools.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par UK Office of Qualifications and Examinations Regulation, a endommagé A-level pupils , GCSE pupils , pupils in state schools et underprivileged pupils.

Statistiques d'incidents

ID
374
Nombre de rapports
8
Date de l'incident
2020-08-13
Editeurs
Khoa Lam
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.3. Unequal performance across groups

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

+7
Algorithme d'examens controversé pour définir 97 % des résultats du GCSE
L'empreinte algorithmique
Algorithme d'examens controversé pour définir 97 % des résultats du GCSE

Algorithme d'examens controversé pour définir 97 % des résultats du GCSE

theguardian.com

A-levels et GCSE : comment l'algorithme d'examen a-t-il fonctionné ?

A-levels et GCSE : comment l'algorithme d'examen a-t-il fonctionné ?

bbc.com

Le Royaume-Uni abandonne les résultats des examens générés par un algorithme biaisé après les manifestations étudiantes

Le Royaume-Uni abandonne les résultats des examens générés par un algorithme biaisé après les manifestations étudiantes

theverge.com

Ofqual a ignoré les examens il y a un mois sous la pression des ministres

Ofqual a ignoré les examens il y a un mois sous la pression des ministres

theguardian.com

Un chef ofqual doit affronter les députés au sujet du fiasco des examens et de la notation bâclée des algorithmes

Un chef ofqual doit affronter les députés au sujet du fiasco des examens et de la notation bâclée des algorithmes

theguardian.com

Algorithme de niveau A d'Ofqual : pourquoi n'a-t-il pas réussi à obtenir la note ?

Algorithme de niveau A d'Ofqual : pourquoi n'a-t-il pas réussi à obtenir la note ?

theguardian.com

Comment un algorithme informatique a provoqué une crise de notation dans les écoles britanniques

Comment un algorithme informatique a provoqué une crise de notation dans les écoles britanniques

cnbc.com

L'empreinte algorithmique

L'empreinte algorithmique

dl.acm.org

Algorithme d'examens controversé pour définir 97 % des résultats du GCSE
theguardian.com · 2020
Traduit par IA

Près de 5 millions de GCSE seront décernés cette semaine à l'aide d'un modèle controversé qui, selon les experts en éducation, pourrait entraîner une dégradation encore plus importante des résultats que lors du fiasco [A-levels] (https://ww…

A-levels et GCSE : comment l'algorithme d'examen a-t-il fonctionné ?
bbc.com · 2020
Traduit par IA

Les étudiants du GCSE en Angleterre, en Irlande du Nord et au Pays de Galles reçoivent des résultats basés sur les évaluations des enseignants, après un changement de dernière minute du système.

Ils devaient initialement recevoir des notes …

Le Royaume-Uni abandonne les résultats des examens générés par un algorithme biaisé après les manifestations étudiantes
theverge.com · 2020
Traduit par IA

Le Royaume-Uni a déclaré que les étudiants d'Angleterre et du Pays de Galles ne recevraient plus les résultats des examens basés sur un algorithme controversé après des accusations selon lesquelles le système était [biaisé contre les étudia…

Ofqual a ignoré les examens il y a un mois sous la pression des ministres
theguardian.com · 2020
Traduit par IA

Ofqual a été averti il y a au moins un mois des failles de l'algorithme des examens qui ont dévasté des milliers d'étudiants, mais le régulateur a poursuivi malgré la pression ministérielle de longue date pour empêcher l'inflation des notes…

Un chef ofqual doit affronter les députés au sujet du fiasco des examens et de la notation bâclée des algorithmes
theguardian.com · 2020
Traduit par IA

La directrice générale d'Ofqual, Sally Collier, devrait être convoquée devant les députés au début du mois prochain pour faire face à des questions sur le fiasco des examens, a-t-on appris.

Collier n'a fait aucune apparition publique ni déc…

Algorithme de niveau A d'Ofqual : pourquoi n'a-t-il pas réussi à obtenir la note ?
theguardian.com · 2020
Traduit par IA

Pour une si courte chaîne de symboles algébriques, nous pouvons apprendre beaucoup de [l'algorithme de notation] d'Ofqual (https://www.theguardian.com/education/2020/aug/20/ofqual-chief-to-face-mps -sur-examens-fiasco-et-algorithme-bâclé-sy…

Comment un algorithme informatique a provoqué une crise de notation dans les écoles britanniques
cnbc.com · 2020
Traduit par IA

Gavin Williamson, secrétaire à la défense du Royaume-Uni, arrive pour une réunion hebdomadaire des ministres du cabinet au numéro 10 Downing Street à Londres, au Royaume-Uni, le mardi 23 avril 2019.

La Grande-Bretagne est en proie à une déb…

L'empreinte algorithmique
dl.acm.org · 2022
Traduit par IA

Lorsque des dommages algorithmiques apparaissent, une réponse raisonnable consiste à cesser d'utiliser l'algorithme pour résoudre les problèmes liés à l'équité, la responsabilité, la transparence et l'éthique (FATE). Cependant, ce n'est pas…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 rapports
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 rapports
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 rapports
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 rapports
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df