Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1979

Incidents associés

Incident 1446 Rapports
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Loading...
YouTube AI interprète mal le chat d'échecs impliquant des pièces «noires» et «blanches», des drapeaux pour le racisme
techtimes.com · 2021

Il peut être incroyable au premier abord qu'un algorithme de YouTube ait détecté une discussion d'échecs comme "raciste" et l'ait signalée pour punition. Dans le cas du YouTuber d'échecs, il a été bloqué par la société de streaming vidéo pour le prétendu problème sensible.

YouTube AI aurait pu percevoir à tort le chat d'échecs comme "raciste"


L'incident s'est produit en juin 2020 et les gens ne savent absolument pas pourquoi l'algorithme a empêché le streamer de faire ses vidéos de contenu sur les échecs. À tout le moins, il aurait pu savoir que la vidéo était signalée comme un contenu « nocif » et « dangereux ». Peut-être, il a reconnu une quantité de discours de haine dans le forum de discussion si tel était le cas.

Dans un rapport de [Daily Mail,](https://www.dailymail.co.uk/sciencetech/article-9279473/YouTube-algorithm-accidentally-blocked-chess-player-discussing-black-versus-white-strategy. html?fbc Deux chercheurs de l'Université Carnegie Mellon (CMU) ont eu une supposition folle sur le mystère derrière la confusion.

Ce qui est intrigant concernant l'affaire, c'est que YouTube n'a même pas expliqué pourquoi la chaîne de Radic a été fermée immédiatement. Cependant, après 24 heures, il est revenu comme si de rien n'était. Pour résoudre le scénario ahurissant, un scientifique du projet a déclaré que cela s'était produit parce que l'interview virale de Radic avec le GM Hikaru Nakamura avait détecté des mots qui avaient déclenché le racisme.

Ashique KhudaBukhsh du Language Technologies Institute de la CMU a admis qu'ils n'avaient aucune idée de l'outil utilisé par YouTube pour détecter une insulte raciste dans la discussion. La vidéo, cependant, mentionnait «noir» et «blanc» qui étaient considérés comme un langage raciste.

En outre, il a ajouté que si l'incident frappait des YouTubers populaires comme Radic, que demander de plus si l'IA faisait la même chose à d'autres personnes qui diffusent juste pour le plaisir. KhudaBukhsh et son compagnon Rupak Sarkar, un ingénieur de recherche, ont exécuté deux logiciels d'IA capables de détecter les discours de haine pour tester leur faisabilité. Parallèlement au test, ils ont découvert plus de 680 000 commentaires provenant de cinq chaînes consacrées aux échecs.

Par ailleurs, sur près de 700 000 commentaires, un simple test aléatoire a été réalisé sur 1 000 commentaires échantillons. Ils ont découvert que 82% des commentaires n'abordaient rien du discours de haine. Mais, ils ont vu que des mots liés au racisme comme blanc, menace, noir et attaque pourraient être la clé manquante de l'action soudaine de l'IA.

L'IA pourrait avoir une manière différente de filtrer les messages à travers de grands échantillons et soyez assuré que la précision varie également en fonction des exemples.

Comparer la situation passée à ce qui est arrivé à Radic


Dans un rapport de CMU News, KhudaBukhsh a déjà rencontré le problème de l'échantillon. Son objectif sera de reconnaître les 'chiens actifs' et les 'chiens paresseux' dans un groupe de photos. La majorité des images qui ont des «chiens actifs» contenaient des herbes où les chiens couraient. Cependant, le programme considérait parfois les photos contenant des herbes comme des échantillons d'un «chien actif», même dans certains cas, aucun chien n'était détecté sur les photos.

Ce qui est arrivé à Radic n'était qu'une simple ressemblance. Les ensembles de données d'entraînement n'étaient que quelques-uns, même si le sujet principal était les échecs. En conséquence, de mauvaises classifications d'entre eux se sont produites.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd