Incidentes Asociados

"The Queen's Gambit", la miniserie de televisión reciente sobre un maestro de ajedrez, puede haber despertado un mayor interés en el ajedrez, pero una palabra para los sabios: hablar en las redes sociales sobre los colores de las piezas del juego podría generar malentendidos, al menos por odio. software de detección de voz. Eso es lo que un par de investigadores de la Universidad Carnegie Mellon sospechan que le sucedió a Antonio Radić, o "agadmator", un jugador de ajedrez croata que alberga un popular canal de YouTube. En junio pasado, su cuenta fue bloqueada por contenido "dañino y peligroso".
YouTube nunca proporcionó una explicación y restableció el canal dentro de las 24 horas, dijo Ashique R. KhudaBukhsh un científico del proyecto en el [Instituto de Tecnologías del Lenguaje] de CMU(https: //www.lti.cs.cmu.edu/) (LTI). Sin embargo, es posible que la conversación de "negro contra blanco" durante la entrevista de Radić con el Gran Maestro Hikaru Nakamura haya activado un software que detecta automáticamente el lenguaje racista, sugirió.
"No sabemos qué herramientas usa YouTube, pero si confían en la inteligencia artificial para detectar lenguaje racista, este tipo de accidente puede ocurrir", dijo KhudaBukhsh. Y si le sucedió públicamente a alguien de tan alto perfil como Radić, es muy posible que le esté sucediendo discretamente a muchas otras personas que no son tan conocidas.
Para ver si esto era factible, KhudaBukhsh y Rupak Sarkar, un ingeniero de investigación de cursos de LTI, probaron dos clasificadores de voz de última generación, un tipo de software de inteligencia artificial que puede entrenarse para detectar indicios de discurso de odio. Usaron los clasificadores para filtrar más de 680 000 comentarios recopilados de cinco canales populares de YouTube centrados en el ajedrez. Luego, tomaron muestras aleatorias de 1000 comentarios que al menos uno de los clasificadores había marcado como discurso de odio. Cuando revisaron manualmente esos comentarios, encontraron que la gran mayoría, el 82%, no incluía discurso de odio. Palabras como negro, blanco, ataque y amenaza parecían desencadenantes, dijeron. Al igual que con otros programas de inteligencia artificial que dependen del aprendizaje automático, estos clasificadores se entrenan con una gran cantidad de ejemplos y su precisión puede variar según el conjunto de ejemplos utilizados. .Por ejemplo, KhudaBukhsh recordó un ejercicio que encontró cuando era estudiante, en el que el objetivo era identificar "perros perezosos" y "perros activos" en un conjunto de fotos. Muchas de las fotos de entrenamiento de perros activos mostraban amplias extensiones de césped porque los perros que corrían a menudo estaban en la distancia. Como resultado, el programa a veces identificaba fotos que contenían grandes cantidades de hierba como ejemplos de perros activos, incluso si las fotos no incluían ningún perro. En el caso del ajedrez, muchos de los conjuntos de datos de entrenamiento probablemente incluyen pocos ejemplos de charlas de ajedrez. , lo que lleva a una clasificación errónea, anotó.
El trabajo de investigación de KhudaBukhsh y Sarkar, un recién graduado de la Facultad de Ingeniería Gubernamental de Kalyani en India, ganó el premio a la mejor presentación abstracta de tres minutos de un estudiante este mes en la [conferencia anual de la Asociación para el Avance de la IA] (https://aaai.org /Conferencias/AAAI-21/).