Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1980

Incidents associés

Incident 1446 Rapports
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Loading...
L'IA confond le chat d'échecs "en noir et blanc" avec du racisme
independent.co.uk · 2021

Selon nouvelle recherche.

Des informaticiens de l'Université Carnegie Mellon ont commencé à enquêter sur le problème de l'IA après qu'une chaîne d'échecs populaire sur YouTube a été bloquée pour contenu "nocif et dangereux" en juin dernier.

Le joueur d'échecs croate Antonio Radic, qui s'appelle en ligne Agadmator, héberge la [chaîne d'échecs YouTube] la plus populaire au monde (https://www.youtube.com/user/AGADMATOR), avec plus d'un million d'abonnés.

Le 28 juin 2020, Radic a été bloqué de YouTube alors qu'il présentait une émission d'échecs avec le grand maître Hikaru Nakamura, bien qu'aucune raison spécifique n'ait été donnée par la plate-forme vidéo appartenant à Google.

La chaîne de Radic a été rétablie après 24 heures, ce qui a conduit le champion d'échecs à spéculer qu'il avait été temporairement banni pour une référence à "noir contre blanc", même s'il parlait d'échecs à l'époque.

Le système de modération de YouTube repose à la fois sur des humains et des algorithmes d'IA, ce qui signifie que tout système d'IA pourrait mal interpréter les commentaires s'il n'est pas formé correctement pour comprendre le contexte.

"S'ils s'appuient sur l'intelligence artificielle pour détecter un langage raciste, ce genre d'accident peut se produire", a déclaré Ashiqur KhudaBukhsh, chercheur au Language Technologies Institute de la CMU.

KhudaBukhsh a testé cette théorie en utilisant un classificateur de parole à la pointe de la technologie pour filtrer plus de 680 000 commentaires recueillis sur cinq chaînes YouTube populaires axées sur les échecs.

Après avoir examiné manuellement une sélection de 1 000 commentaires qui avaient été classés par l'IA comme discours de haine, ils ont constaté que 82 % d'entre eux avaient été mal classés en raison de l'utilisation de mots comme « noir », « blanc », « attaque » et « menace » - tous couramment utilisés dans le langage des échecs.

L'article a été présenté ce mois-ci à la conférence annuelle de l'Association pour l'avancement de l'IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd