Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1875

Incidentes Asociados

Incidente 2813 Reportes
YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

Loading...
YouTube criticado por recomendar videos de 'autolesiones' con imágenes gráficas
businessinsider.in · 2019

Según se informa, el contenido potencialmente dañino ha pasado nuevamente por los algoritmos de moderación en [YouTube] (https://www.businessinsider.com/category/youtube).

Según un informe de The Telegraph el lunes, YouTube ha estado recomendando videos que contienen imágenes gráficas de autolesiones a usuarios de hasta 13 años.

El informe sostiene que al menos una docena de videos con imágenes gráficas aún existen en YouTube, a pesar de que la política de la plataforma de videos es prohibir los videos que promueven las autolesiones o el suicidio.

Según los informes, YouTube eliminó al menos dos videos marcados por The Telegraph, pero quedan otros, incluido uno titulado "Mis enormes cicatrices extremas de autolesión".

En respuesta al informe de The Telegraph, YouTube dijo que elimina videos que promueven la autolesión (que violan sus términos de servicio), pero puede permitir otros que ofrezcan apoyo.

The Telegraph también encontró recomendaciones de términos de búsqueda como "tutorial de cómo autolesionarse", "niñas que se autolesionan" y "guía de autolesión". YouTube eliminó estas recomendaciones una vez que se notificó a la empresa, según el informe.

"Sabemos que muchas personas usan YouTube para encontrar información, consejos o apoyo, a veces en las circunstancias más difíciles. Trabajamos duro para garantizar que nuestras plataformas no se utilicen para fomentar comportamientos peligrosos", dijo un portavoz de YouTube a Business Insider en un comunicado. "Debido a esto, tenemos políticas estrictas que prohíben videos que promuevan la autolesión y eliminaremos los videos marcados que violen esta política".

YouTube devuelve números para que los usuarios llamen o envíen mensajes de texto para pedir ayuda cuando se ingresan términos de búsqueda como "suicidio" o "autolesión".

YouTube ha tenido problemas durante mucho tiempo para moderar contenido perturbador y peligroso en su plataforma.

En diciembre pasado, The Times of London descubrió que la empresa no pudo eliminar videos de explotación infantil de manera oportuna. En enero, YouTube enfrentó una ola de "Bird Box Challenge" inspirada en el drama de Netflix donde los espectadores, incluida una de las celebridades más importantes de la plataforma, [Jake Paul] (https://www.theverge.com/2019/1/7/18172657 /jake-paul-bird-box-challenge-youtube-blindfold-netflix) - se ponen en situaciones peligrosas con los ojos vendados. YouTube obligó a Paul a eliminar su video y le dio [al resto de la comunidad](https://www.businessinsider.com/youtube-updated-its-guidelines-to-ban-dangerous-pranks-and-challenges-2019- 1) dos meses para hacerlo ellos mismos.

Y luego están los videos de la teoría de la conspiración, como que la Tierra es plana y otros potencialmente más dañinos, como curas falsas para enfermedades graves. A finales de enero, YouTube lo dijo [recomendaría menos](https://www. businessinsider.com/youtube-to-recommend-fewer-conspiracy-theory-videos-2019-1) contenido "límite", y que cree que ha creado una mejor solución para evitar que se propaguen.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd