Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1961

Incidentes Asociados

Incidente 3112 Reportes
YouTube Auto-Moderation Mistakenly Banned Women of Sex Tech Conference

Loading...
YouTube dice que la prohibición del show en vivo de tecnología sexual para mujeres fue culpa del algoritmo
dailymail.co.uk · 2020

YouTube está culpando a su herramienta de moderación automática por eliminar una transmisión en vivo de una conferencia de sexo de mujeres.

Según un informe del Daily Dot,, la conferencia, llamada Mujeres de Sex Tech, tuvo su La transmisión en vivo fue autoprohibida de YouTube solo cuatro minutos después de la transmisión por presuntamente violar las pautas de la comunidad de la plataforma.

Según los informes, la conferencia ha estado en curso durante los últimos cinco años, pero se trasladó en línea debido a la pandemia de coronavirus.

En una declaración al DailyDot, YouTube dijo que el incidente fue causado por una mayor dependencia del algoritmo destinado a eliminar automáticamente el contenido que infringe las pautas de YouTube.

La dependencia de la moderación automática ha sido impulsada por la falta de moderadores humanos debido a las limitaciones provocadas por la pandemia de coronavirus en curso, dijo YouTube.

"Sabemos que esto puede resultar en la eliminación de algunos videos que no violan nuestras políticas, pero esto nos permite continuar actuando rápidamente y protegiendo nuestro ecosistema", dijo el portavoz.

"Si los creadores creen que su contenido se eliminó por error, pueden apelar las decisiones y nuestros equipos lo revisarán".

Motherboard informa que, aunque las pautas de la comunidad de YouTube están destinadas a evitar el contenido 'sexualmente gratificante', así como la desnudez y la pornografía, toda la conferencia de cinco horas no contenía dicho material.

"Estaba tan confundida que pensé que tenía que ser un problema técnico considerando que no se mencionaba el sexo o el contenido para adultos en ese momento", dijo la presidenta de Women of Sex Tech, Alison Falk, a Motherboard.

"Teniendo en cuenta que esto no ocurre una sola vez y que hay historias frecuentes de personas que han sido baneadas, desmonetizadas, que tienen sus cuentas desactivadas, etc. dentro de nuestras comunidades, no puedo evitar preguntarme qué variables dentro de la automatización su detección inteligente se le ha dicho que busque eso desencadenaría una violación de contenido inapropiado”, dijo Falk a Motherboard.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd