Incidentes Asociados

Según se informa, el contenido potencialmente dañino ha pasado nuevamente por los algoritmos de moderación en [YouTube] (https://www.businessinsider.com/category/youtube).
Según un informe de The Telegraph el lunes, YouTube ha estado recomendando videos que contienen imágenes gráficas de autolesiones a usuarios de hasta 13 años.
El informe sostiene que al menos una docena de videos con imágenes gráficas aún existen en YouTube, a pesar de que la política de la plataforma de videos es prohibir los videos que promueven las autolesiones o el suicidio.
Según los informes, YouTube eliminó al menos dos videos marcados por The Telegraph, pero quedan otros, incluido uno titulado "Mis enormes cicatrices extremas de autolesión".
En respuesta al informe de The Telegraph, YouTube dijo que elimina videos que promueven la autolesión (que violan sus términos de servicio), pero puede permitir otros que ofrezcan apoyo.
The Telegraph también encontró recomendaciones de términos de búsqueda como "tutorial de cómo autolesionarse", "niñas que se autolesionan" y "guía de autolesión". YouTube eliminó estas recomendaciones una vez que se notificó a la empresa, según el informe.
"Sabemos que muchas personas usan YouTube para encontrar información, consejos o apoyo, a veces en las circunstancias más difíciles. Trabajamos duro para garantizar que nuestras plataformas no se utilicen para fomentar comportamientos peligrosos", dijo un portavoz de YouTube a Business Insider en un comunicado. "Debido a esto, tenemos políticas estrictas que prohíben videos que promuevan la autolesión y eliminaremos los videos marcados que violen esta política".
YouTube devuelve números para que los usuarios llamen o envíen mensajes de texto para pedir ayuda cuando se ingresan términos de búsqueda como "suicidio" o "autolesión".
YouTube ha tenido problemas durante mucho tiempo para moderar contenido perturbador y peligroso en su plataforma.
En diciembre pasado, The Times of London descubrió que la empresa no pudo eliminar videos de explotación infantil de manera oportuna. En enero, YouTube enfrentó una ola de "Bird Box Challenge" inspirada en el drama de Netflix donde los espectadores, incluida una de las celebridades más importantes de la plataforma, [Jake Paul] (https://www.theverge.com/2019/1/7/18172657 /jake-paul-bird-box-challenge-youtube-blindfold-netflix) - se ponen en situaciones peligrosas con los ojos vendados. YouTube obligó a Paul a eliminar su video y le dio [al resto de la comunidad](https://www.businessinsider.com/youtube-updated-its-guidelines-to-ban-dangerous-pranks-and-challenges-2019- 1) dos meses para hacerlo ellos mismos.
Y luego están los videos de la teoría de la conspiración, como que la Tierra es plana y otros potencialmente más dañinos, como curas falsas para enfermedades graves. A finales de enero, YouTube lo dijo [recomendaría menos](https://www. businessinsider.com/youtube-to-recommend-fewer-conspiracy-theory-videos-2019-1) contenido "límite", y que cree que ha creado una mejor solución para evitar que se propaguen.