Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2042

Incidents associés

Incident 1446 Rapports
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

L'IA peut confondre les discussions d'échecs avec des propos racistes
cmu.edu · 2021

"The Queen's Gambit", la récente mini-série télévisée sur un maître des échecs, a peut-être suscité un intérêt accru pour les échecs, mais un mot au sage : les discussions sur les réseaux sociaux sur les couleurs des pièces de jeu pourraient conduire à des malentendus, du moins pour la haine. C'est ce qu'une paire de chercheurs de l'Université Carnegie Mellon soupçonne d'être arrivé à Antonio Radić, ou "agadmator", un joueur d'échecs croate qui héberge une chaîne YouTube populaire. En juin dernier, son compte a été bloqué pour contenu « nuisible et dangereux ».

YouTube n'a jamais fourni d'explication et a rétabli la chaîne dans les 24 heures, a déclaré Ashique R. KhudaBukhsh un scientifique de projet au [Language Technologies Institute](https: //www.lti.cs.cmu.edu/) (LTI). Il est néanmoins possible que la conversation "noir contre blanc" lors de l'interview de Radić avec le grand maître Hikaru Nakamura ait déclenché un logiciel qui détecte automatiquement le langage raciste, a-t-il suggéré.

"Nous ne savons pas quels outils YouTube utilise, mais s'ils s'appuient sur l'intelligence artificielle pour détecter le langage raciste, ce genre d'accident peut se produire", a déclaré KhudaBukhsh. Et si cela est arrivé publiquement à quelqu'un d'aussi connu que Radić, cela pourrait bien arriver discrètement à beaucoup d'autres personnes moins connues.

Pour voir si cela était faisable, KhudaBukhsh et Rupak Sarkar, un ingénieur de recherche de cours LTI, ont testé deux classificateurs de discours à la pointe de la technologie – un type de logiciel d'IA qui peut être formé pour détecter les indications de discours de haine. Ils ont utilisé les classificateurs pour filtrer plus de 680 000 commentaires recueillis sur cinq chaînes YouTube populaires axées sur les échecs. Ils ont ensuite échantillonné au hasard 1 000 commentaires qu'au moins l'un des classificateurs avait signalés comme discours de haine. Lorsqu'ils ont examiné manuellement ces commentaires, ils ont constaté que la grande majorité - 82% - n'incluait pas de discours de haine. Des mots tels que noir, blanc, attaque et menace semblaient être des déclencheurs, ont-ils déclaré. Comme pour d'autres programmes d'IA qui dépendent de l'apprentissage automatique, ces classificateurs sont entraînés avec un grand nombre d'exemples et leur précision peut varier en fonction de l'ensemble d'exemples utilisés. Par exemple, KhudaBukhsh s'est souvenu d'un exercice qu'il a rencontré en tant qu'étudiant, dans lequel le but était d'identifier les "chiens paresseux" et les "chiens actifs" dans une série de photos. De nombreuses photos d'entraînement de chiens actifs montraient de larges étendues d'herbe, car les chiens qui couraient étaient souvent au loin. En conséquence, le programme identifiait parfois des photos contenant de grandes quantités d'herbe comme exemples de chiens actifs, même si les photos n'incluaient aucun chien. , conduisant à une mauvaise classification, a-t-il noté.

Le document de recherche de KhudaBukhsh et Sarkar, récemment diplômé du Kalyani Government Engineering College en Inde, a remporté ce mois-ci la meilleure présentation de résumé étudiant de trois minutes à la [conférence annuelle de l'Association pour l'avancement de l'IA] (https://aaai.org /Conférences/AAAI-21/).

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f