Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1980

Incidentes Asociados

Incidente 1446 Reportes
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Loading...
AI confunde el chat de ajedrez 'blanco y negro' con racismo
independent.co.uk · 2021

Las discusiones en línea sobre piezas de ajedrez en blanco y negro están confundiendo algoritmos de inteligencia artificial entrenados para detectar racismo y otros discursos de odio, según nueva investigación.

Los informáticos de la Universidad Carnegie Mellon comenzaron a investigar la falla de la IA después de que un popular canal de ajedrez en YouTube fuera bloqueado por contenido "dañino y peligroso" en junio pasado.

El ajedrecista croata Antonio Radic, conocido con el alias en línea Agadmator, presenta el [canal de ajedrez de YouTube] más popular del mundo (https://www.youtube.com/user/AGADMATOR), con más de 1 millón de suscriptores.

El 28 de junio de 2020, Radic fue bloqueado de YouTube mientras presentaba un espectáculo de ajedrez con el gran maestro Hikaru Nakamura, aunque la plataforma de video propiedad de Google no dio ninguna razón específica.

El canal de Radic se restableció después de 24 horas, lo que llevó al campeón de ajedrez a especular que había sido suspendido temporalmente por una referencia a "negro contra blanco", a pesar de que en ese momento estaba hablando de ajedrez.

El sistema de moderación de YouTube se basa tanto en humanos como en algoritmos de inteligencia artificial, lo que significa que cualquier sistema de inteligencia artificial podría malinterpretar los comentarios si no está capacitado correctamente para comprender el contexto.

“Si confían en la inteligencia artificial para detectar lenguaje racista, este tipo de accidente puede ocurrir”, dijo Ashiqur KhudaBukhsh, científico del proyecto en el Instituto de Tecnologías del Lenguaje de CMU.

KhudaBukhsh probó esta teoría mediante el uso de un clasificador de voz de última generación para filtrar más de 680 000 comentarios recopilados de cinco canales populares de YouTube centrados en el ajedrez.

Después de revisar manualmente una selección de 1,000 comentarios que la IA había clasificado como discurso de odio, encontraron que el 82 por ciento de ellos habían sido mal clasificados debido al uso de palabras como "negro", "blanco", "ataque" y " amenaza” – todo lo cual se usa comúnmente en la jerga del ajedrez.

El documento se presentó este mes en la conferencia anual de la Asociación para el Avance de la IA.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd