Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2134

Incidentes Asociados

Incidente 1446 Reportes
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Loading...
YouTube AI bloquea el canal de ajedrez después de confundir la discusión 'negro contra blanco' con racismo
tribune.com.pk · 2021

El canal de ajedrez de YouTube más popular del mundo fue bloqueado después de que se configuraran algoritmos artificiales para detectar contenido racista y discursos de odio que confundieran la discusión sobre piezas de ajedrez en blanco y negro con racismo, [informes](https://www.independent.co.uk/life- style/gadgets-and-tech/ai-chess-racism-youtube-agadmator-b1804160.html) Reino Unido independiente.

El 28 de junio de 2020, el canal de ajedrez de YouTube del ajedrecista croata Antonio Radic, con más de 1 millón de suscriptores, fue bloqueado durante un programa de ajedrez con el gran maestro Hikaru Nakamura.

No recibió ninguna explicación de la plataforma de videos.

El canal de Radic fue restaurado 24 horas después. Sospecha que la cuenta pudo haber sido bloqueada porque se refirió al juego de ajedrez como "Negro contra Blanco".

YouTube se basa tanto en humanos como en algoritmos de IA, lo que significa que el sistema de IA podría cometer un error si no está entrenado correctamente para interpretar el contexto.

“Si confían en la inteligencia artificial para detectar lenguaje racista, este tipo de accidente puede ocurrir”, dijo Ashiqur KhudaBukhsh, científico del proyecto en el Instituto de Tecnologías del Lenguaje de CMU.

KhudaBukhs probó esta teoría utilizando el mejor clasificador de voz disponible para filtrar 680 000 comentarios recopilados de cinco canales populares de YouTube centrados en el ajedrez.

Después de revisar manualmente 1,000 comentarios, descubrió que el 82 por ciento de ellos habían sido categorizados erróneamente por AI como discurso de odio porque los comentarios usaban palabras como "negro", "blanco", "ataque" y "amenaza".

YouTube, Facebook y Twitter advirtieron el año pasado que los videos y el contenido pueden eliminarse por error debido a violaciones de las políticas, ya que las empresas confían en un software de eliminación automatizado durante la pandemia de coronavirus.

En una publicación de blog, Google dijo que para reducir la necesidad de que las personas acudan a las oficinas, YouTube y otras divisiones comerciales confían temporalmente más en la inteligencia artificial y las herramientas automatizadas para encontrar contenido problemático.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd