Incidents associés

Selon nouvelle recherche.
Des informaticiens de l'Université Carnegie Mellon ont commencé à enquêter sur le problème de l'IA après qu'une chaîne d'échecs populaire sur YouTube a été bloquée pour contenu "nocif et dangereux" en juin dernier.
Le joueur d'échecs croate Antonio Radic, qui s'appelle en ligne Agadmator, héberge la [chaîne d'échecs YouTube] la plus populaire au monde (https://www.youtube.com/user/AGADMATOR), avec plus d'un million d'abonnés.
Le 28 juin 2020, Radic a été bloqué de YouTube alors qu'il présentait une émission d'échecs avec le grand maître Hikaru Nakamura, bien qu'aucune raison spécifique n'ait été donnée par la plate-forme vidéo appartenant à Google.
La chaîne de Radic a été rétablie après 24 heures, ce qui a conduit le champion d'échecs à spéculer qu'il avait été temporairement banni pour une référence à "noir contre blanc", même s'il parlait d'échecs à l'époque.
Le système de modération de YouTube repose à la fois sur des humains et des algorithmes d'IA, ce qui signifie que tout système d'IA pourrait mal interpréter les commentaires s'il n'est pas formé correctement pour comprendre le contexte.
"S'ils s'appuient sur l'intelligence artificielle pour détecter un langage raciste, ce genre d'accident peut se produire", a déclaré Ashiqur KhudaBukhsh, chercheur au Language Technologies Institute de la CMU.
KhudaBukhsh a testé cette théorie en utilisant un classificateur de parole à la pointe de la technologie pour filtrer plus de 680 000 commentaires recueillis sur cinq chaînes YouTube populaires axées sur les échecs.
Après avoir examiné manuellement une sélection de 1 000 commentaires qui avaient été classés par l'IA comme discours de haine, ils ont constaté que 82 % d'entre eux avaient été mal classés en raison de l'utilisation de mots comme « noir », « blanc », « attaque » et « menace » - tous couramment utilisés dans le langage des échecs.
L'article a été présenté ce mois-ci à la conférence annuelle de l'Association pour l'avancement de l'IA.