Incidentes Asociados
En las últimas semanas, el mundo se enteró a través de una serie de informes que YouTube está plagado de problemas con el contenido infantil. La compañía ha aumentado la moderación en las últimas semanas para combatir la ola de contenido inapropiado, pero esta no es la primera vez que YouTube se encuentra en esta posición.
¿CUÁNDO EMPEZO?
El 23 de febrero de 2015, YouTube anunció YouTube Kids, una aplicación independiente creada para niños y entretenimiento apropiado para niños. La idea era hacer de YouTube una plataforma más segura para los padres, que no querían que sus hijos usaran el sitio principal sin supervisión. La publicación inicial del blog sobre la aplicación Kids menciona que "los padres pueden descansar un poco más tranquilos sabiendo que los videos en la aplicación YouTube Kids se reducen al contenido apropiado para los niños".
También se incluyeron los controles parentales, que incluyen dar a los padres la capacidad de eliminar la opción de búsqueda de la aplicación, dando a sus hijos acceso a "solo los videos preseleccionados disponibles en la pantalla de inicio". La aplicación para niños, según Shimrit Ben-Yair, gerente de producto de YouTube Kids Group, marcó el "primer paso hacia la reinvención de YouTube para las familias".
Menos de dos meses después, en mayo de 2015, la Campaña por una Infancia Libre de Comerciales, una coalición de grupos de defensa de los consumidores y los niños, se quejó ante la Comisión Federal de Comercio (FTC) sobre el contenido que llamaron "no solo... perturbador para los jóvenes". que los niños vean, pero potencialmente dañina”.
Usando personajes populares como Elsa y Spider-Man de Frozen, los usuarios de YouTube pueden atraer a los niños a videos ofensivos con sus personajes favoritos. Si bien al principio estos videos parecen normales, pronto llevan a esas mismas princesas y superhéroes de Disney a participar en actos lascivos o violentos. El algoritmo de búsqueda de YouTube facilita que los niños caigan en trampas de listas de reproducción espantosas llenas de este tipo de contenido, ya que los usuarios nombran sus videos y usan miniaturas que pueden eludir el algoritmo de YouTube, asegurando que el contenido parezca seguro para los niños.
El informe enumera una serie de problemas que Golin y otros miembros de los equipos de defensa descubrieron en la aplicación YouTube Kids desde el principio. Éstos incluyen:
Lenguaje sexual explícito presentado en medio de animación de dibujos animados;
Una parodia llena de blasfemias de la película Casino con Bert y Ernie de Sesame Street;
Discusiones gráficas de adultos sobre violencia familiar, pornografía y suicidio infantil;
Chistes sobre pedofilia y consumo de drogas;
Modelado de comportamientos inseguros como jugar con fósforos encendidos.
Un representante de YouTube le dijo a San Jose Mercury News después de que se presentara la queja que, cuando la compañía estaba trabajando en la aplicación YouTube Kids, "consultó con numerosos socios y grupos de defensa y privacidad de los niños", y agregó que YouTube "siempre está abierto a recibir comentarios". sobre formas de mejorar la aplicación”.
Pero no cambió mucho. Un informe de The Guardian en junio de 2016 señaló que el tercer canal más popular en YouTube en ese momento era "Webs & Tiaras", que seleccionaba contenido dirigido a niños. El canal, según los informes, protagonizó una variedad de adultos con disfraces de superhéroes o atuendos de princesa que realizaron actos más maduros.
El contenido del canal era cuestionable, pero en su mayoría se entendió como aceptable. Otros malos actores que querían aprovechar el éxito del canal comenzaron a publicar contenido similar pero con imágenes sexuales y contenido perturbador. En 2016, Phil Ranta, un portavoz del canal, le dijo a The Verge que no era sorprendente que esto sucediera.
“Creo que es natural que cuando algo es tan grande como este [nuevo género], y ven personas que ganan millones de dólares al año, intentarán casi todo: ser más limpios, agregar diálogos, volverse más sexys o más locos”, Ranta. dijo. “Simplemente necesitan agotar esas medidas antes de darse cuenta si pueden permanecer en este juego”.
Un canal en particular, Webs & Tiaras: Toy Monster estaba usando el nombre de Webs & Tiaras para difundir contenido perturbador bajo una asociación de tendencias. Muchos de esos videos se han eliminado, pero algunos aún permanecen en YouTube. El canal original Webs & Tiaras se eliminó antes de que se escribiera este artículo.
YouTube finalmente está abordando el problema en su sitio principal, realizando cambios en la forma en que modera el contenido. La directora ejecutiva de YouTube, Susan Wojcicki, dijo que la compañía estaba expandiendo su cuerpo de moderación a más de 10,000 contratistas en 2018, enfocándolos en "contenido que podría violar nuestras políticas".
“Los revisores humanos siguen siendo esenciales tanto para eliminar contenido como para entrenar sistemas de aprendizaje automático porque el juicio humano es fundamental para tomar decisiones contextualizadas sobre el contenido”, escribió en una publicación de blog reciente.
Casi tres años después, YouTube ha respondido a una serie de inquietudes planteadas por los padres y los críticos de los medios sobre el contenido, tanto en el sitio principal como en la aplicación independiente para niños de YouTube, que encuentran perturbador, que glorifica la violencia u obsceno. La compañía emitió la siguiente declaración a Polygon:
El contenido que engaña o pone en peligro a los niños es inaceptable para nosotros. Tenemos políticas claras contra estos videos y las aplicamos agresivamente. Utilizamos una combinación de aprendizaje automático, algoritmos y marcado de la comunidad para determinar el contenido de la aplicación YouTube Kids. El equipo de YouTube está formado por padres que se preocupan profundamente por esto y están comprometidos a mejorar la aplicación cada día.
Pero las preguntas sobre el contenido de su aplicación independiente para niños, incluso si el contenido futuro será curado o si la aplicación presentará menos videos para permitir una mayor moderación dirigida por humanos, siguen sin respuesta.
Un representante de YouTube le dijo a Polygon que solo cinco milésimas (0.005) de un porcentaje del contenido en YouTube Kids se considera perturbador y va en contra de las políticas de la compañía, y agregó que una vez que se informa el contenido, la compañía toma medidas estrictas para eliminar videos y, en casos graves. , canales completos desde la aplicación.
“YouTube está comercializando esto como un lugar seguro para que los niños exploren, pero no es un lugar seguro para que los niños exploren”, dijo a Polygon el director de Campaign for a Commercial-Free Childhood, Josh Golin. “Realmente fuimos los primeros en plantear este problema, y esto se remonta a dos años y medio. Lo que hemos encontrado en el ínterin [es], es como Whac-A-Mole, por lo que señalamos los videos a medida que los veíamos. Todos los videos que nombramos en nuestra queja salieron [de la aplicación], pero, por supuesto, hubo más.
“Es una forma terrible de crear una aplicación para niños”, dijo.
En la queja de mayo de 2015 ante la FTC el 19 de mayo de 2015, Golin señaló cómo el algoritmo de búsqueda de YouTube podría explotarse incluso dentro de un entorno supuestamente seguro para los niños.
A medida que los usuarios de YouTube Kids buscan material, la aplicación comienza a recomendar videos similares, ya que la función "Recomendado" en YouTube Kids aparentemente se basa en el historial de "Búsqueda". Cuando realizábamos nuestra revisión, YouTube Kids en realidad comenzó a recomendar videos sobre cata de vinos en su aplicación para niños en edad preescolar, como lo indica la captura de pantalla a continuación. Por lo tanto, cuantos más videos inapropiados busquen los niños, más videos inapropiados se mostrarán a través de la función "Recomendados" de la aplicación.
Golin y sus colegas no fueron las únicas personas que notaron que el contenido dirigido a niños en la aplicación YouTube Kids y el sitio principal era problemático. En los últimos años, han surgido varios grupos de padres en Facebook con la intención de aprender a navegar, marcar y seleccionar una experiencia segura para sus hijos.
La declaración de misión de un grupo de Facebook, "Padres navegando en YouTube", establece que el grupo fue creado para:
Ayude a incluir en la lista blanca el contenido de YouTube que es seguro para que nuestros hijos lo vean sin la supervisión de los padres. Esto cubrirá el contenido para adultos pero también el contenido objetable como la supremacía blanca, el sexismo y cosas de esa naturaleza. También discutiremos el contenido problemático de YouTube para que sepamos qué hay y podamos estar preparados para discutirlo con nuestros hijos.
Con poco apoyo de YouTube, estos grupos a menudo actúan como vigilantes voluntarios, analizando lo peor de YouTube y marcándolo. Un representante de YouTube le dijo a Polygon que, a pesar de que su propio algoritmo de aprendizaje automático se mejora a diario (aprendiendo qué contenido es inaceptable para los niños), el equipo confía en las alertas de los padres para ayudar a abordar videos y canales problemáticos.
En un momento en que los padres trabajaban juntos en la creación de un sistema nuevo y mejorado para controlar lo que ven los niños, YouTube se centró en otros aspectos de la aplicación. La empresa decidió destacar otras áreas de la aplicación YouTube Kids en 2016, incluido el hecho de que se podía ver en el Apple TV y era compatible con YouTube Red.
No fue hasta este año que YouTube comenzó a invertir fuertemente en medidas preventivas.
En primer lugar, la moderación.
CAMBIOS EN REALIZACIÓN
Aunque YouTube ha sostenido que su sitio principal está siendo explotado por malos actores, no específicamente por la aplicación YouTube Kids, todavía es imposible para YouTube garantizar que la aplicación Kids sea 100 por ciento segura. La compañía le dijo a USA Today que los padres que quieren asegurarse de que sus hijos no se tropiecen con contenido perturbador, deben desactivar las opciones de "videos recomendados".
“A veces, su hijo puede encontrar contenido en la aplicación que quizás no quiera que vea”, dijo un representante de YouTube a USA Today.
Malik Ducard, jefe global de contenido familiar y para niños de YouTube, le dijo al New York Times que este tipo de videos eran "la aguja extrema en el pajar", y señaló el aprendizaje automático del algoritmo y la falta de supervisión por las razones por las que estos videos pueden haberse deslizado. . Ducard también dijo que YouTube Kids no ofrecía una experiencia curada, lo que significa que los padres eran responsables de controlar lo que ven sus hijos.
Cuando el modo de restricción está activado, lo que brinda a los padres la capacidad de desactivar la función de búsqueda y evitar que videos adicionales del sitio principal inunden la aplicación, es difícil para los niños volver a cambiar a una configuración de roaming más abierta y gratuita. YouTube también deja claro que una vez que los padres se registran en la aplicación, a pesar de los mejores esfuerzos de la compañía, puede aparecer contenido perturbador creado por malos actores.
VISTA EN CUADRÍCULA
1 de 5
Pantalla de bienvenida de la aplicación YouTube Kids YouTube
Desde la perspectiva de YouTube, la moderación perfecta es imposible. Cada minuto se suben 400 horas de vídeo.
Pero para Golin, los esfuerzos actuales no son suficientes. Golin le dijo a Polygon que es irresponsable que YouTube trate su algoritmo como una "gran red de pesca", asumiendo que el algoritmo captará todos los videos malos destinados a explotarlo.
“Toda la premisa de la aplicación YouTube Kids es incorrecta si te preocupa la seguridad de los niños”, dijo Golin. “No puedes tener una aplicación que tenga millones y millones de videos, pero está bien. Los niños no necesitan una aplicación con millones y millones de videos. No necesitan 20,000 videos de huevos en una aplicación. Lo que necesitan es un lugar donde el contenido haya sido examinado y seguro.
“Desde el punto de vista de un niño, el problema no tiene solución”, dijo Golin. “El modelo de YouTube ha creado algo, que es muy grande, pero cada minuto se suben 400 horas de contenido. Es simplemente demasiado grande. La gente ha estado planteando estos problemas durante años, solo visite cualquier foro para padres y han estado hablando sobre los videos falsos de Peppa Pig. Fue solo después de que la pieza de Medium se volvió viral que YouTube comenzó a tomar medidas proactivas. Para ser claros, tomaron medidas porque los anunciantes estaban preocupados, no los padres”.
YouTube ya pasó por un “adpocalipsis”, en el que los grandes anunciantes se retiraron de la plataforma después de encontrar sus anuncios adjuntos a videos llenos de contenido odioso. Por lo tanto, la empresa quiere evitar cualquier cosa que haga que otros se vayan.
Parte del plan de YouTube es aumentar la moderación humana y modificar su algoritmo, "entrenando la tecnología de aprendizaje automático en otras áreas de contenido desafiantes, incluida la seguridad infantil y el discurso de odio". YouTube también reducirá los canales que reciben monetización y anuncios adjuntos a estos videos. Dado que YouTube Kids también incluye anuncios, muchos de los cuales, dice Golin, no son apropiados para niños, esto afectará los canales y videos en la plataforma.
¿QUÉ SIGUE PARA LOS NIÑOS DE YOUTUBE?
YouTube Kids es un generador de dinero; YouTube no le diría a Polygon cuánto exactamente, pero vende anuncios en los videos. Sea lo que sea, Golin cree que es suficiente que YouTube no tenga ningún incentivo para cambiar su aplicación. YouTube se negó a comentar cuando se le preguntó si la compañía iba a curar su contenido y restringir la cantidad de videos en el futuro.
“Su objetivo es ganar dinero y, a menos que haya suficiente protesta y presión continua sobre ellos, vamos a ver los mismos problemas”, dijo Golin. “No sé si los problemas son reparables. Sería genial si YouTube se diera cuenta de que estos problemas se pueden solucionar y dejara en claro [que si la empresa no selecciona el contenido] esto es para adultos que quieren ver videos. No tengo mucha fe en que lo conseguirán por su cuenta”.
Un representante de YouTube le dijo a Polygon que, a pesar de los informes, la mayor parte del problema radica en el sitio principal, que dedicará gran parte de su tiempo a solucionar el próximo año. El representante dijo que se implementaron cambios extensos a su política actual para desalentar el contenido inapropiado dirigido a las familias en la aplicación principal y el sitio; al hacer esto, confirmó un representante, se supone que garantizará que el contenido restringido por edad (marcado para una audiencia mayor de 18 años) no aparezca en YouTube Kids.
Un representante de YouTube también confirmó que el contenido que está marcado en el sitio principal de YouTube no debe aparecer en la aplicación Kids. Si un video llega a la aplicación, el representante confirmó que se lleva a cabo una proyección secundaria y agregó que hay un equipo para moderar los videos nuevos que están marcados en la aplicación en todo momento.
Los grupos de padres y las organizaciones de vigilancia, como ElsaGate en Reddit y Discord, siguen planteando preguntas, que vigilan los canales o videos nefastos que están pasando por el sistema de YouTube sobre lo que sigue. Un representante de YouTube no pudo proporcionar más detalles en el momento de escribir este artículo.
Con los críticos criticando a YouTube por su respuesta lenta, entre ellos el CEO de News Corp, Robert Thompson, quien llamó a YouTube un "vertedero de desechos tóxicos", la pregunta ahora es cuán inmediatamente se maneja el problema después del nuevo año. Ducard y Wojcicki dijeron que la compañía está "trabajando en formas de prevenir de manera más efectiva y proactiva que ocurra este tipo de situación".