Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1979

Incidentes Asociados

Incidente 1446 Reportes
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Loading...
YouTube AI malinterpreta el chat de ajedrez que involucra piezas 'negras' y 'blancas', banderas para el racismo
techtimes.com · 2021

Al principio, puede parecer increíble que un algoritmo de YouTube haya detectado una discusión de ajedrez como "racista" y la haya marcado como castigo. En el caso del YouTuber de ajedrez, fue bloqueado por la empresa de transmisión de video por el supuesto tema delicado.

YouTube AI podría haber percibido erróneamente el chat de ajedrez como 'racista'


El incidente ocurrió en junio de 2020 y la gente no tiene idea de por qué el algoritmo impidió que el transmisor hiciera sus videos de contenido sobre ajedrez. Como mínimo, podría haber sabido que el video fue marcado como contenido 'dañino' y 'peligroso'. Tal vez, reconoció una cantidad de discurso de odio en el foro de discusión si ese fuera el caso.

En un informe de [Daily Mail,](https://www.dailymail.co.uk/sciencetech/article-9279473/YouTube-algorithm-accidentally-blocked-chess-player-discussing-black-versus-white-strategy. html?fbclid=IwAR29te-mzawqi2X883hLxy5OkvbTYlXQmie7uNVlxfQiampJ0XKv8aRN67M), el entusiasta del ajedrez croata, Antonio Radic, también conocido por su nombre de YouTube "agadmator", estaba desconcertado por qué se le prohibió cualquier actividad dentro de la plataforma para compartir videos. Dos investigadores de la Universidad Carnegie Mellon (CMU) tuvieron una conjetura descabellada sobre el misterio detrás de la confusión.

Lo intrigante del caso fue que YouTube ni siquiera explicó por qué el canal de Radic se cerró de inmediato. Sin embargo, después de 24 horas, volvió como si nada. Para resolver el escenario alucinante, un científico del proyecto dijo que sucedió porque la entrevista viral de Radic con el gerente general Hikaru Nakamura había detectado palabras que provocaban racismo.

Ashique KhudaBukhsh del Language Technologies Institute en CMU admitió que no tienen idea de qué herramienta usó YouTube para detectar un insulto racista en la discusión. El video, sin embargo, menciona "negro" y "blanco", que se cree que es un lenguaje racista.

Además, agregó que si el incidente golpeó a YouTubers populares como Radic, qué más si la IA ha estado haciendo lo mismo con otras personas que solo transmiten por diversión. KhudaBukhsh y su compañero Rupak Sarkar, un ingeniero de investigación, ejecutaron dos software de inteligencia artificial que podían detectar el discurso de odio para probar su viabilidad. Junto con la prueba, descubrieron más de 680.000 comentarios provenientes de cinco canales que trataban sobre ajedrez.

Además, de casi 700.000 comentarios, se realizó una prueba aleatoria simple para 1.000 comentarios de muestra. Descubrieron que el 82% de los comentarios no abordaban nada sobre el discurso de odio. Pero han visto que palabras relacionadas con el racismo como blanco, amenaza, negro y ataque podrían ser la clave que faltaba para la acción repentina de la IA.

La IA podría tener una forma diferente de filtrar los mensajes a través de muestras grandes y estar seguro de que la precisión también varía según los ejemplos.

Comparando la situación pasada con lo que le sucedió a Radic


En un informe de CMU News,, KhudaBukhsh experimentó el problema de la muestra antes. Su objetivo será reconocer a los 'perros activos' ya los 'perros vagos' en un grupo de fotos. La mayoría de las imágenes que tienen 'perros activos' contenían pastos donde corrían los perros. Sin embargo, el programa a veces consideraba aquellas fotos que tienen pastos como muestras de un 'perro activo', incluso en algunos casos, no se detectaron perros en las fotos.

Lo que le sucedió a Radic fue solo una mera semejanza. Los conjuntos de datos de entrenamiento eran solo unos pocos, aunque el tema principal era el ajedrez. Como resultado, ocurrieron clasificaciones incorrectas de ellos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd