Incidentes Asociados

Al principio, puede parecer increíble que un algoritmo de YouTube haya detectado una discusión de ajedrez como "racista" y la haya marcado como castigo. En el caso del YouTuber de ajedrez, fue bloqueado por la empresa de transmisión de video por el supuesto tema delicado.
YouTube AI podría haber percibido erróneamente el chat de ajedrez como 'racista'
El incidente ocurrió en junio de 2020 y la gente no tiene idea de por qué el algoritmo impidió que el transmisor hiciera sus videos de contenido sobre ajedrez. Como mínimo, podría haber sabido que el video fue marcado como contenido 'dañino' y 'peligroso'. Tal vez, reconoció una cantidad de discurso de odio en el foro de discusión si ese fuera el caso.
En un informe de [Daily Mail,](https://www.dailymail.co.uk/sciencetech/article-9279473/YouTube-algorithm-accidentally-blocked-chess-player-discussing-black-versus-white-strategy. html?fbclid=IwAR29te-mzawqi2X883hLxy5OkvbTYlXQmie7uNVlxfQiampJ0XKv8aRN67M), el entusiasta del ajedrez croata, Antonio Radic, también conocido por su nombre de YouTube "agadmator", estaba desconcertado por qué se le prohibió cualquier actividad dentro de la plataforma para compartir videos. Dos investigadores de la Universidad Carnegie Mellon (CMU) tuvieron una conjetura descabellada sobre el misterio detrás de la confusión.
Lo intrigante del caso fue que YouTube ni siquiera explicó por qué el canal de Radic se cerró de inmediato. Sin embargo, después de 24 horas, volvió como si nada. Para resolver el escenario alucinante, un científico del proyecto dijo que sucedió porque la entrevista viral de Radic con el gerente general Hikaru Nakamura había detectado palabras que provocaban racismo.
Ashique KhudaBukhsh del Language Technologies Institute en CMU admitió que no tienen idea de qué herramienta usó YouTube para detectar un insulto racista en la discusión. El video, sin embargo, menciona "negro" y "blanco", que se cree que es un lenguaje racista.
Además, agregó que si el incidente golpeó a YouTubers populares como Radic, qué más si la IA ha estado haciendo lo mismo con otras personas que solo transmiten por diversión. KhudaBukhsh y su compañero Rupak Sarkar, un ingeniero de investigación, ejecutaron dos software de inteligencia artificial que podían detectar el discurso de odio para probar su viabilidad. Junto con la prueba, descubrieron más de 680.000 comentarios provenientes de cinco canales que trataban sobre ajedrez.
Además, de casi 700.000 comentarios, se realizó una prueba aleatoria simple para 1.000 comentarios de muestra. Descubrieron que el 82% de los comentarios no abordaban nada sobre el discurso de odio. Pero han visto que palabras relacionadas con el racismo como blanco, amenaza, negro y ataque podrían ser la clave que faltaba para la acción repentina de la IA.
La IA podría tener una forma diferente de filtrar los mensajes a través de muestras grandes y estar seguro de que la precisión también varía según los ejemplos.
Comparando la situación pasada con lo que le sucedió a Radic
En un informe de CMU News,, KhudaBukhsh experimentó el problema de la muestra antes. Su objetivo será reconocer a los 'perros activos' ya los 'perros vagos' en un grupo de fotos. La mayoría de las imágenes que tienen 'perros activos' contenían pastos donde corrían los perros. Sin embargo, el programa a veces consideraba aquellas fotos que tienen pastos como muestras de un 'perro activo', incluso en algunos casos, no se detectaron perros en las fotos.
Lo que le sucedió a Radic fue solo una mera semejanza. Los conjuntos de datos de entrenamiento eran solo unos pocos, aunque el tema principal era el ajedrez. Como resultado, ocurrieron clasificaciones incorrectas de ellos.