Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1747

Incidentes Asociados

Incidente 2292 Reportes
Content Using Bestiality Thumbnails Allegedly Evaded YouTube’s Thumbnail Monitoring System

Loading...
Los canales de YouTube están utilizando miniaturas de bestialidad como clickbait
theverge.com · 2018

Otro problema más para el que la inteligencia artificial no está bien equipada.

Los videos de YouTube con miniaturas que representan a mujeres participando en diversos actos sexuales con caballos y perros ocupan los principales resultados de búsqueda en la plataforma de videos, según un informe de BuzzFeed News. Algunos de estos videos, que se pueden encontrar fácilmente a través del motor de recomendaciones algorítmicas de YouTube después de buscar frases inocuas como “niña y su caballo”, tienen millones de visitas y llevan meses en la plataforma.

Por supuesto, los filtros algorítmicos de la compañía, su sistema de informes de usuarios y sus moderadores de contenido humano captarían más fácilmente los videos de YouTube que representan tales actos. Más difíciles de encontrar y eliminar son los videos que usan imágenes gráficas y obscenas como miniaturas, junto con títulos de clickbait, para aumentar la audiencia y generar más ingresos publicitarios. No parece que ninguno de los videos que muestran las miniaturas de bestialidad, de hecho, presenten bestialidad.

Este no es un problema aislado, sino otro ejemplo más de cómo la estructura fundamental de YouTube puede ser explotada por malos actores, muchos de los cuales juegan con las reglas de la plataforma para generar ingresos publicitarios para granjas de clics o con fines nefastos. Al igual que Facebook y Twitter, YouTube ha tenido problemas durante los últimos años con la falta de control que tiene sobre la inmensa cantidad de contenido generado por los usuarios que se envía al extranjero todos los días. Aunque YouTube tiene poderosos algoritmos que ayudan a marcar el contenido y muchos miles de moderadores humanos contratados, parece que todas las semanas aparece un nuevo problema que muestra cuán frágil y mal equipado está el sistema de moderación de la compañía para lidiar con el contenido que está en contra. las reglas o de otra manera ilegal.

Por lo tanto, un problema de moderación que comenzó hace años en gran parte con contenido protegido por derechos de autor ahora se ha expandido para incluir videos de propaganda y reclutamiento de terroristas, contenido de explotación infantil y pornografía y otro material explícito, entre millones y millones de otros videos no aptos para anunciantes. YouTube ha realizado cambios sustanciales en su plataforma para apaciguar a los anunciantes, sofocar las críticas y mejorar la seguridad y la legalidad de su producto. Esos cambios incluyen comprometerse a contratar más moderadores humanos, desmonetización masiva y prohibición de cuentas, y actualizaciones de sus términos de servicio y políticas del sitio.

Según BuzzFeed, YouTube revisó y comenzó a limpiar su plataforma de los videos y cuentas responsables del contenido de miniaturas de bestialidad una vez que la organización de noticias le notificó el problema. En una historia publicada por The New York Times hoy, YouTube dijo que eliminó un total de 8,28 millones de videos en 2017, y que aproximadamente el 80 por ciento de esos derribos comenzaron con una bandera de su sistema de moderación de contenido impulsado por inteligencia artificial. Aún así, mientras YouTube se base principalmente en software para abordar los llamados videos problemáticos, tendrá que limpiar manualmente su plataforma de contenido como miniaturas de bestialidad y cualquier otro rincón oscuro de la superficie de Internet en los resultados de búsqueda públicos de YouTube y a través de su motor de recomendación.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd