Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 374: L'algorithme d'Ofqual au Royaume-Uni a fourni de manière disproportionnée des notes inférieures à celles des évaluations des enseignants

Traduit par IA
Description:
Traduit par IA
L'algorithme de normalisation des notes de l'Office of Qualifications and Examinations Regulation (Ofqual) du Royaume-Uni, fournissant des notes prédites pour les qualifications de niveau A et GCSE au Royaume-Uni, au Pays de Galles, en Irlande du Nord et en Écosse, donnerait des notes inférieures aux évaluations des enseignants, et de manière disproportionnée pour les écoles publiques.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par UK Office of Qualifications and Examinations Regulation, a endommagé A-level pupils , GCSE pupils , pupils in state schools et underprivileged pupils.

Statistiques d'incidents

ID
374
Nombre de rapports
8
Date de l'incident
2020-08-13
Editeurs
Khoa Lam
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.3. Unequal performance across groups

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

+7
Algorithme d'examens controversé pour définir 97 % des résultats du GCSE
L'empreinte algorithmique
Algorithme d'examens controversé pour définir 97 % des résultats du GCSE

Algorithme d'examens controversé pour définir 97 % des résultats du GCSE

theguardian.com

A-levels et GCSE : comment l'algorithme d'examen a-t-il fonctionné ?

A-levels et GCSE : comment l'algorithme d'examen a-t-il fonctionné ?

bbc.com

Le Royaume-Uni abandonne les résultats des examens générés par un algorithme biaisé après les manifestations étudiantes

Le Royaume-Uni abandonne les résultats des examens générés par un algorithme biaisé après les manifestations étudiantes

theverge.com

Ofqual a ignoré les examens il y a un mois sous la pression des ministres

Ofqual a ignoré les examens il y a un mois sous la pression des ministres

theguardian.com

Un chef ofqual doit affronter les députés au sujet du fiasco des examens et de la notation bâclée des algorithmes

Un chef ofqual doit affronter les députés au sujet du fiasco des examens et de la notation bâclée des algorithmes

theguardian.com

Algorithme de niveau A d'Ofqual : pourquoi n'a-t-il pas réussi à obtenir la note ?

Algorithme de niveau A d'Ofqual : pourquoi n'a-t-il pas réussi à obtenir la note ?

theguardian.com

Comment un algorithme informatique a provoqué une crise de notation dans les écoles britanniques

Comment un algorithme informatique a provoqué une crise de notation dans les écoles britanniques

cnbc.com

L'empreinte algorithmique

L'empreinte algorithmique

dl.acm.org

Algorithme d'examens controversé pour définir 97 % des résultats du GCSE
theguardian.com · 2020
Traduit par IA

Près de 5 millions de GCSE seront décernés cette semaine à l'aide d'un modèle controversé qui, selon les experts en éducation, pourrait entraîner une dégradation encore plus importante des résultats que lors du fiasco [A-levels] (https://ww…

A-levels et GCSE : comment l'algorithme d'examen a-t-il fonctionné ?
bbc.com · 2020
Traduit par IA

Les étudiants du GCSE en Angleterre, en Irlande du Nord et au Pays de Galles reçoivent des résultats basés sur les évaluations des enseignants, après un changement de dernière minute du système.

Ils devaient initialement recevoir des notes …

Le Royaume-Uni abandonne les résultats des examens générés par un algorithme biaisé après les manifestations étudiantes
theverge.com · 2020
Traduit par IA

Le Royaume-Uni a déclaré que les étudiants d'Angleterre et du Pays de Galles ne recevraient plus les résultats des examens basés sur un algorithme controversé après des accusations selon lesquelles le système était [biaisé contre les étudia…

Ofqual a ignoré les examens il y a un mois sous la pression des ministres
theguardian.com · 2020
Traduit par IA

Ofqual a été averti il y a au moins un mois des failles de l'algorithme des examens qui ont dévasté des milliers d'étudiants, mais le régulateur a poursuivi malgré la pression ministérielle de longue date pour empêcher l'inflation des notes…

Un chef ofqual doit affronter les députés au sujet du fiasco des examens et de la notation bâclée des algorithmes
theguardian.com · 2020
Traduit par IA

La directrice générale d'Ofqual, Sally Collier, devrait être convoquée devant les députés au début du mois prochain pour faire face à des questions sur le fiasco des examens, a-t-on appris.

Collier n'a fait aucune apparition publique ni déc…

Algorithme de niveau A d'Ofqual : pourquoi n'a-t-il pas réussi à obtenir la note ?
theguardian.com · 2020
Traduit par IA

Pour une si courte chaîne de symboles algébriques, nous pouvons apprendre beaucoup de [l'algorithme de notation] d'Ofqual (https://www.theguardian.com/education/2020/aug/20/ofqual-chief-to-face-mps -sur-examens-fiasco-et-algorithme-bâclé-sy…

Comment un algorithme informatique a provoqué une crise de notation dans les écoles britanniques
cnbc.com · 2020
Traduit par IA

Gavin Williamson, secrétaire à la défense du Royaume-Uni, arrive pour une réunion hebdomadaire des ministres du cabinet au numéro 10 Downing Street à Londres, au Royaume-Uni, le mardi 23 avril 2019.

La Grande-Bretagne est en proie à une déb…

L'empreinte algorithmique
dl.acm.org · 2022
Traduit par IA

Lorsque des dommages algorithmiques apparaissent, une réponse raisonnable consiste à cesser d'utiliser l'algorithme pour résoudre les problèmes liés à l'équité, la responsabilité, la transparence et l'éthique (FATE). Cependant, ce n'est pas…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 rapports
Biased Sentiment Analysis

Biased Sentiment Analysis

Oct 2017 · 7 rapports
Northpointe Risk Models

Northpointe Risk Models

May 2016 · 15 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 rapports
Biased Sentiment Analysis

Biased Sentiment Analysis

Oct 2017 · 7 rapports
Northpointe Risk Models

Northpointe Risk Models

May 2016 · 15 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178