Incidentes Asociados

Se ha pillado a YouTube recomendando "docenas" de vídeos gráficos relacionados con las autolesiones de los niños.
La popular aplicación para compartir videos ha sido criticada por promocionar clips peligrosos para usuarios de tan solo 13 años.
YouTube está bajo fuego por no proteger a los usuarios del contenido dañinoCrédito: Reuters
YouTube, propiedad de Google, ha sido criticado por alojar contenido inapropiado con temas de suicidio anteriormente.
Pero un nuevo informe de The Telegraph encontró que YouTube no ha logrado limpiar su acto.
Encontró videos que mostraban "imágenes gráficas de autolesiones", que eran fácilmente accesibles para los jóvenes en el sitio.
Un clip marcado titulado "Mis enormes cicatrices extremas de autolesiones" todavía está activo en el sitio y ha acumulado casi 400,000 visitas en los últimos dos años.
También se descubrió que YouTube ofrecía recomendaciones de términos de búsqueda preocupantes, que incluyen "tutorial de cómo autolesionarse", "chicas que se autolesionan" y "guía de autolesión".
Los ministros del Reino Unido actualmente están elaborando planes para que los gigantes tecnológicos tengan un deber legal de cuidado para los jóvenes que usan plataformas de redes sociales.
Existe una presión creciente sobre las megacorporaciones como Google y Facebook para que asuman una mayor responsabilidad por el bienestar de los niños en sus sitios.
En un comunicado, el secretario de salud del Reino Unido, Matt Hancock, dijo: "Somos dueños de nuestro propio destino como nación, y debemos actuar para asegurarnos de que esta increíble tecnología se use para el bien, sin que las niñas se quiten la vida".
Un portavoz de YouTube emitió un comunicado sobre la exposición, diciendo que "trabaja duro" para evitar que aparezcan videos y recomendaciones dañinos en el sitio.
"Sabemos que muchas personas usan YouTube para encontrar información, consejos o apoyo, a veces en las circunstancias más difíciles", dijo un portavoz de YouTube.
"Trabajamos arduamente para garantizar que nuestras plataformas no se utilicen para fomentar comportamientos peligrosos.
"Debido a esto, tenemos políticas estrictas que prohíben los videos que promueven la autolesión y eliminaremos los videos marcados que violen esta política.
"Nuestras políticas también prohíben las predicciones de autocompletar para estos temas, y eliminaremos cualquier sugerencia que no cumpla con nuestras políticas".
YouTube también muestra un número de teléfono para ponerse en contacto con la organización benéfica de apoyo al suicidio Samaritans cuando los usuarios buscan términos como "suicidio" en el sitio.
Pero los expertos creen que YouTube simplemente no va lo suficientemente lejos para abordar estos problemas.
En declaraciones a The Sun, Andy Burrows, Director Asociado de Seguridad Infantil en Línea de la NSPCC, dijo: "Es preocupante que YouTube esté recomendando activamente videos inapropiados a los jóvenes.
"YouTube, al igual que muchas plataformas de redes sociales, parece no cumplir con sus propias reglas para mantener a los niños seguros.
"La campaña Web del Lejano Oeste de la NSPCC ha estado pidiendo durante meses al gobierno que imponga un deber legal de cuidado que finalmente obligue a las redes sociales a proteger verdaderamente a los niños y enfrentar castigos severos si no lo hacen. Esta no es una oportunidad que el gobierno puede señorita."
En septiembre pasado, una investigación realizada por The Sun reveló cómo YouTube se estaba beneficiando de los bromistas enfermos [que publican impactantes videos falsos de suicidio en línea] (https://www.thesun.co.uk/tech/6899836/youtube-suicide-prank-videos/ ).
Descubrimos cientos de videos impactantes: algunos tienen millones de visitas y han estado en vivo en YouTube durante años.
Las organizaciones benéficas de salud mental advirtieron a The Sun que estos videos podrían incluso inspirar suicidios reales, debido a los métodos detallados que se muestran en algunos clips.
Un clip vio a una mujer fabricar su propia muerte en una bañera llena de sangre falsa, filmando la reacción de su esposo cuando regresó a casa.
La angustiada pareja de la mujer llora, grita su nombre e incluso se mete en la bañera para resucitarla.
Otro video de hace cinco años muestra a un bromista británico fingir una llamada telefónica enojado, antes de saltar al Támesis, un acto que cobra 25 vidas al año, sorprendiendo a los espectadores. Tiene más de 3 millones de visitas.
Hablando con The Sun en ese momento, Brian Dow, director gerente de Mental Health UK y copresidente de la Alianza Nacional para la Prevención del Suicidio, dijo: "Realmente no debería ser necesario afirmar que el suicidio no es una broma o una broma".
"Todos los días la gente pierde padres, hijos, hermanos y amigos, y verlo trivializado de esta manera es cruel e increíblemente irresponsable.
"Presentar este problema tan grave de esta manera puede tener efectos inmediatos y duraderos no solo en el espectador, que podría verse afectado por lo que ve en la pantalla, sino también en las víctimas de las 'bromas' que vemos que se realizan".
En ese momento, un portavoz del Departamento de Digital, Cultura, Medios y Deportes le dijo a The Sun: "El suicidio es un problema muy serio que afecta a millones de personas cada año.
"Instaríamos a YouTube a considerar si los videos que trivializan a alguien que se quita la vida deberían estar en su plataforma".
Esa no fue la primera vez que YouTube fue expuesto por albergar contenido impactante.
En diciembre de 2017, el popular vloguero de YouTube [Logan Paul](https://www.thesun.co.uk/tvandshowbiz/5249875/logan-paul-height-weight-net-worth-suicide-forest-video-youtube-girlfriend- ksi-fight/) despertó controversia después de filmar el cuerpo de una víctima de suicidio.
El clip, que se publicó en YouTube, mostraba el cadáver recientemente fallecido de alguien que se había ahorcado en un bosque en Japón.
Paul obtuvo millones de visitas en cuestión de horas, pero fue ampliamente condenado. Finalmente eliminó el video, emitió una disculpa, y tomó un descanso de un mes de YouTube.
The Sun también ha descubierto un anuncio falso de esteroides, un secreto [alijo de pornografía](https://www. thesun.co.uk/tech/6037891/youtube-porn-videos-playlists-millions-views/), listas de reproducción obscenas [diseñadas para "atraer a los niños"](https://www.thesun.co.uk/tech/6081286 /youtube-porn-playlist-kids-parental-control/), y anuncios sexuales con webcam en Youtube.
Los sitios de redes sociales [pueden ser procesados pronto por no proteger a los niños del contenido perturbador en línea] (https://www.thesun.co.uk/tech/8310012/social-media-prosecuted-disturbing-content/).
Instagram ha admitido su [fallo en el bloqueo de fotos de autolesiones y suicidios] (https://www.thesun.co.uk/tech/8355606/instagram-self-harm-suicide/).
Y recientemente atraparon a Facebook [pagando a niños hasta £ 15 por mes para instalar una "aplicación de espionaje"] (https://www.thesun.co.uk/tech/8311587/facebook-paying-children-to-install-spying -app/) que monitorea todo lo que hicieron en línea.
¿Crees que Google debe hacer más para mantener YouTube limpio? ¡Cuéntanos en los comentarios!