Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2134

Incidents associés

Incident 1446 Rapports
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Loading...
YouTube AI bloque la chaîne d'échecs après avoir confondu la discussion "noir contre blanc" avec du racisme
tribune.com.pk · 2021

La chaîne d'échecs YouTube la plus populaire au monde a été bloquée après que des algorithmes artificiels mis en place pour détecter le contenu raciste et les discours de haine ont confondu la discussion sur les pièces d'échecs en noir et blanc avec du racisme, [reports](https://www.independent.co.uk/life- style/gadgets-and-tech/ai-chess-racism-youtube-agadmator-b1804160.html) Royaume-Uni indépendant.

Le 28 juin 2020, la chaîne d'échecs YouTube du joueur d'échecs croate Antonio Radic, avec plus d'un million d'abonnés, a été bloquée lors d'une émission d'échecs avec le grand maître Hikaru Nakamura.

Il n'a reçu aucune explication de la plateforme vidéo.

La chaîne de Radic a été restaurée 24 heures plus tard. Il soupçonne que le compte a peut-être été bloqué parce qu'il a qualifié le jeu d'échecs de "Noir contre Blanc".

YouTube s'appuie à la fois sur des humains et sur des algorithmes d'IA, ce qui signifie que le système d'IA pourrait faire une erreur s'il n'est pas formé correctement pour interpréter le contexte.

"S'ils s'appuient sur l'intelligence artificielle pour détecter un langage raciste, ce genre d'accident peut se produire", a déclaré Ashiqur KhudaBukhsh, chercheur au Language Technologies Institute de la CMU.

KhudaBukhs a testé cette théorie en utilisant le meilleur classificateur de parole disponible pour filtrer 680 000 commentaires recueillis sur cinq chaînes YouTube populaires axées sur les échecs.

Après avoir examiné manuellement 1 000 commentaires, il a découvert que 82 % d'entre eux avaient été classés à tort par AI comme discours de haine parce que les commentaires utilisaient des mots comme « noir », « blanc », « attaque » et « menace ».

YouTube, Facebook et Twitter ont averti l'année dernière que des vidéos et du contenu pourraient être supprimés par erreur en cas de violation des politiques, car les entreprises s'appuient sur un logiciel de retrait automatisé pendant la pandémie de coronavirus.

Dans un article de blog, Google a déclaré que pour réduire le besoin de personnes de se rendre dans les bureaux, YouTube et d'autres divisions commerciales s'appuient temporairement davantage sur l'intelligence artificielle et les outils automatisés pour trouver le contenu problématique.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd