Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 144: YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Description: YouTube's AI-powered hate speech detection system falsely flagged chess content and banned chess creators allegedly due to its misinterpretation of strategy language such as "black," "white," and "attack" as harmful and dangerous.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par YouTube, a endommagé Antonio Radic , YouTube chess content creators et YouTube users.

Statistiques d'incidents

ID
144
Nombre de rapports
6
Date de l'incident
2020-06-28
Editeurs
Sean McGregor, Khoa Lam
Applied Taxonomies
GMF, CSETv1, MIT

Classifications de taxonomie GMF

Détails de la taxonomie

Known AI Goal Snippets

One or more snippets that justify the classification.
 

(Snippet Text: YouTube's overeager AI might have misinterpreted a conversation about chess as racist language. , Related Classifications: Hate Speech Detection), (Snippet Text: Using the software on over 680,000 comments taken from five popular YouTube chess channels, they found 82 percent of the comments flagged in a sample set didn't include any obvious racist language or hate speech., Related Classifications: Hate Speech Detection)

Classifications de taxonomie CSETv1

Détails de la taxonomie

Incident Number

The number of the incident in the AI Incident Database.
 

144

AI Tangible Harm Level Notes

Notes about the AI tangible harm level assessment
 

It is possible that Antonio Radic may have lost some revenue from having his YouTube channel suspended for 24 hours, given its popularity. However, this is not explicitly mentioned in the reports.

Special Interest Intangible Harm

An assessment of whether a special interest intangible harm occurred. This assessment does not consider the context of the intangible harm, if an AI was involved, or if there is characterizable class or subgroup of harmed entities. It is also not assessing if an intangible harm occurred. It is only asking if a special interest intangible harm occurred.
 

no

Date of Incident Year

The year in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the year, estimate. Otherwise, leave blank. Enter in the format of YYYY
 

2020

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

7.3. Lack of capability or robustness

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. AI system safety, failures, and limitations

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

Incident Occurrence+4
L'IA confond le chat d'échecs "en noir et blanc" avec du racisme
Pourquoi un chat YouTube sur les échecs a été signalé pour discours de haine
L'IA confond le chat d'échecs "en noir et blanc" avec du racisme

L'IA confond le chat d'échecs "en noir et blanc" avec du racisme

independent.co.uk

L'algorithme de YouTube bloque accidentellement la stratégie CHESS "noir contre blanc"

L'algorithme de YouTube bloque accidentellement la stratégie CHESS "noir contre blanc"

dailymail.co.uk

L'IA peut confondre les discussions d'échecs avec des propos racistes

L'IA peut confondre les discussions d'échecs avec des propos racistes

cmu.edu

YouTube AI interprète mal le chat d'échecs impliquant des pièces «noires» et «blanches», des drapeaux pour le racisme

YouTube AI interprète mal le chat d'échecs impliquant des pièces «noires» et «blanches», des drapeaux pour le racisme

techtimes.com

YouTube AI bloque la chaîne d'échecs après avoir confondu la discussion "noir contre blanc" avec du racisme

YouTube AI bloque la chaîne d'échecs après avoir confondu la discussion "noir contre blanc" avec du racisme

tribune.com.pk

Pourquoi un chat YouTube sur les échecs a été signalé pour discours de haine

Pourquoi un chat YouTube sur les échecs a été signalé pour discours de haine

wired.com

L'IA confond le chat d'échecs "en noir et blanc" avec du racisme
independent.co.uk · 2021
Traduit par IA

Selon nouvelle recherche.

Des informaticiens de l'Université Carnegie Mellon ont commencé à enquêter sur le problème de l'IA après qu'une chaîne d'échecs populaire sur YouTube a été bloquée pour contenu "nocif et dangereux" en juin dernier.…

L'algorithme de YouTube bloque accidentellement la stratégie CHESS "noir contre blanc"
dailymail.co.uk · 2021
Traduit par IA

L'IA trop enthousiaste de YouTube a peut-être mal interprété une conversation sur les échecs comme un langage raciste.

L'été dernier, un YouTuber qui produit des vidéos d'échecs populaires a vu sa chaîne bloquée pour avoir inclus ce que le …

L'IA peut confondre les discussions d'échecs avec des propos racistes
cmu.edu · 2021
Traduit par IA

"The Queen's Gambit", la récente mini-série télévisée sur un maître des échecs, a peut-être suscité un intérêt accru pour les échecs, mais un mot au sage : les discussions sur les réseaux sociaux sur les couleurs des pièces de jeu pourraien…

YouTube AI interprète mal le chat d'échecs impliquant des pièces «noires» et «blanches», des drapeaux pour le racisme
techtimes.com · 2021
Traduit par IA

Il peut être incroyable au premier abord qu'un algorithme de YouTube ait détecté une discussion d'échecs comme "raciste" et l'ait signalée pour punition. Dans le cas du YouTuber d'échecs, il a été bloqué par la société de streaming vidéo po…

YouTube AI bloque la chaîne d'échecs après avoir confondu la discussion "noir contre blanc" avec du racisme
tribune.com.pk · 2021
Traduit par IA

La chaîne d'échecs YouTube la plus populaire au monde a été bloquée après que des algorithmes artificiels mis en place pour détecter le contenu raciste et les discours de haine ont confondu la discussion sur les pièces d'échecs en noir et b…

Pourquoi un chat YouTube sur les échecs a été signalé pour discours de haine
wired.com · 2021
Traduit par IA

En juin dernier, Antonio Radić, l'animateur d'une chaîne d'échecs YouTube avec plus d'un million d'abonnés, diffusait en direct une interview du grand maître [Hikaru Nakamura]. (https://www.wired.com/story/hikaru-nakamura-twitch-chess/) lor…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Robot at a Chinese Tech Fair Smashed a Glass Booth, Injuring a Visitor

Chinese Robot Smashes Booth and Injures Man at Shenzhen Hi-Tech Fair

Nov 2016 · 2 rapports
Images of Black People Labeled as Gorillas

When It Comes to Gorillas, Google Photos Remains Blind

Jun 2015 · 24 rapports
Chinese Chatbots Question Communist Party

Rogue chatbots deleted in China after questioning Communist Party

Aug 2017 · 16 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Robot at a Chinese Tech Fair Smashed a Glass Booth, Injuring a Visitor

Chinese Robot Smashes Booth and Injures Man at Shenzhen Hi-Tech Fair

Nov 2016 · 2 rapports
Images of Black People Labeled as Gorillas

When It Comes to Gorillas, Google Photos Remains Blind

Jun 2015 · 24 rapports
Chinese Chatbots Question Communist Party

Rogue chatbots deleted in China after questioning Communist Party

Aug 2017 · 16 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df