Incidents associés

Il peut être incroyable au premier abord qu'un algorithme de YouTube ait détecté une discussion d'échecs comme "raciste" et l'ait signalée pour punition. Dans le cas du YouTuber d'échecs, il a été bloqué par la société de streaming vidéo pour le prétendu problème sensible.
YouTube AI aurait pu percevoir à tort le chat d'échecs comme "raciste"
L'incident s'est produit en juin 2020 et les gens ne savent absolument pas pourquoi l'algorithme a empêché le streamer de faire ses vidéos de contenu sur les échecs. À tout le moins, il aurait pu savoir que la vidéo était signalée comme un contenu « nocif » et « dangereux ». Peut-être, il a reconnu une quantité de discours de haine dans le forum de discussion si tel était le cas.
Dans un rapport de [Daily Mail,](https://www.dailymail.co.uk/sciencetech/article-9279473/YouTube-algorithm-accidentally-blocked-chess-player-discussing-black-versus-white-strategy. html?fbc Deux chercheurs de l'Université Carnegie Mellon (CMU) ont eu une supposition folle sur le mystère derrière la confusion.
Ce qui est intrigant concernant l'affaire, c'est que YouTube n'a même pas expliqué pourquoi la chaîne de Radic a été fermée immédiatement. Cependant, après 24 heures, il est revenu comme si de rien n'était. Pour résoudre le scénario ahurissant, un scientifique du projet a déclaré que cela s'était produit parce que l'interview virale de Radic avec le GM Hikaru Nakamura avait détecté des mots qui avaient déclenché le racisme.
Ashique KhudaBukhsh du Language Technologies Institute de la CMU a admis qu'ils n'avaient aucune idée de l'outil utilisé par YouTube pour détecter une insulte raciste dans la discussion. La vidéo, cependant, mentionnait «noir» et «blanc» qui étaient considérés comme un langage raciste.
En outre, il a ajouté que si l'incident frappait des YouTubers populaires comme Radic, que demander de plus si l'IA faisait la même chose à d'autres personnes qui diffusent juste pour le plaisir. KhudaBukhsh et son compagnon Rupak Sarkar, un ingénieur de recherche, ont exécuté deux logiciels d'IA capables de détecter les discours de haine pour tester leur faisabilité. Parallèlement au test, ils ont découvert plus de 680 000 commentaires provenant de cinq chaînes consacrées aux échecs.
Par ailleurs, sur près de 700 000 commentaires, un simple test aléatoire a été réalisé sur 1 000 commentaires échantillons. Ils ont découvert que 82% des commentaires n'abordaient rien du discours de haine. Mais, ils ont vu que des mots liés au racisme comme blanc, menace, noir et attaque pourraient être la clé manquante de l'action soudaine de l'IA.
L'IA pourrait avoir une manière différente de filtrer les messages à travers de grands échantillons et soyez assuré que la précision varie également en fonction des exemples.
Comparer la situation passée à ce qui est arrivé à Radic
Dans un rapport de CMU News, KhudaBukhsh a déjà rencontré le problème de l'échantillon. Son objectif sera de reconnaître les 'chiens actifs' et les 'chiens paresseux' dans un groupe de photos. La majorité des images qui ont des «chiens actifs» contenaient des herbes où les chiens couraient. Cependant, le programme considérait parfois les photos contenant des herbes comme des échantillons d'un «chien actif», même dans certains cas, aucun chien n'était détecté sur les photos.
Ce qui est arrivé à Radic n'était qu'une simple ressemblance. Les ensembles de données d'entraînement n'étaient que quelques-uns, même si le sujet principal était les échecs. En conséquence, de mauvaises classifications d'entre eux se sont produites.