Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1838

Incidentes Asociados

Incidente 2631 Reporte
YouTube Recommendations Implicated in Political Radicalization of User

Loading...
La creación de un radical de YouTube
nytimes.com · 2019

Martinsburg, W.Va. — Caleb Cain sacó una pistola Glock de su cintura, sacó la revista y casualmente arrojó ambas sobre el mostrador de la cocina. “Lo compré el día después de recibir amenazas de muerte”, dijo. Las amenazas, explicó Cain, provenían de trolls de derecha en respuesta a un video que había publicado en YouTube unos días antes. En el video, contó la historia de cómo, como un liberal que abandonó la universidad y luchaba por encontrar su lugar en el mundo, había sido absorbido por un vórtice de política de extrema derecha en YouTube. “Me caí por la madriguera del conejo de la derecha”, dijo en el video. Cain, de 26 años, renunció recientemente a la derecha alternativa casi cinco años después de descubrirla, y se ha convertido en un crítico vocal del movimiento. Está marcado por su experiencia de ser radicalizado por lo que él llama un "culto descentralizado" de personalidades de extrema derecha de YouTube, quienes lo convencieron de que la civilización occidental estaba amenazada por inmigrantes musulmanes y marxistas culturales, ese coeficiente intelectual innato. las diferencias explicaban las disparidades raciales y que el feminismo era una ideología peligrosa. “Simplemente seguí cayendo más y más profundo en esto, y me atrajo porque me hizo sentir un sentido de pertenencia”, dijo. “Me lavaron el cerebro”. Durante años de informar sobre la cultura de Internet, escuché innumerables versiones de la historia del Sr. Cain: un joven sin rumbo, generalmente blanco, con frecuencia interesado en los videojuegos, visita YouTube en busca de dirección o distracción y es seducido por una comunidad de lejanos. creadores correctos. Algunos jóvenes descubren videos de extrema derecha por accidente, mientras que otros los buscan. Algunos viajan hasta el neonazismo, mientras que otros se detienen en formas más leves de intolerancia. El hilo común en muchas de estas historias es YouTube y su algoritmo de recomendación, el software que determina qué videos aparecen en las páginas de inicio de los usuarios y dentro de la barra lateral "A continuación" junto a un video que se está reproduciendo. El algoritmo es responsable de más del 70 por ciento de todo el tiempo que se pasa en el sitio. La radicalización de los hombres jóvenes está impulsada por un conjunto complejo de elementos emocionales, económicos y políticos, muchos de los cuales no tienen nada que ver con las redes sociales. Pero los críticos e investigadores independientes dicen que YouTube ha creado sin darse cuenta una rampa de acceso peligrosa al extremismo al combinar dos cosas: un modelo comercial que recompensa los videos provocativos con exposición y dólares publicitarios, y un algoritmo que guía a los usuarios por caminos personalizados destinados a mantenerlos pegados a sus pantallas. “Hay un espectro en YouTube entre la sección tranquila, la parte de Walter Cronkite, Carl Sagan, y Crazytown, donde están las cosas extremas”, dijo Tristan Harris, ex especialista en ética del diseño en Google, la empresa matriz de YouTube. “Si soy YouTube y quiero que mires más, siempre te guiaré hacia Crazytown”. En los últimos años, las plataformas de redes sociales se han enfrentado al crecimiento del extremismo en sus servicios. Muchas plataformas han excluido a un puñado de personas influyentes de extrema derecha y teóricos de la conspiración, incluido Alex Jones de Infowars, y las empresas tecnológicas han tomado medidas para limitar la difusión de información política errónea. YouTube, cuyas reglas prohíben la incitación al odio y el acoso, adoptó un enfoque más laissez-faire para hacer cumplir las leyes durante años. La semana pasada, la empresa anunció que estaba actualizando su política para prohibir videos que propugnen neo- Nazismo, supremacía blanca y otros puntos de vista intolerantes. La compañía también dijo que estaba cambiando su algoritmo de recomendación para reducir la difusión de información errónea y teorías de conspiración. Con dos mil millones de usuarios activos mensuales que cargan más de 500 horas de video cada minuto, se estima que el tráfico de YouTube es el segundo más alto de cualquier sitio web, solo detrás de Google.com. Según el Pew Research Center, el 94 por ciento de los estadounidenses de 18 a 24 años usan YouTube, un porcentaje más alto que cualquier otro servicio en línea. Al igual que muchas empresas de Silicon Valley, YouTube es aparentemente liberal en su política corporativa. Patrocina carrozas en L.G.B.T. desfiles del orgullo y celebra diversos creadores, y su director ejecutivo respaldó a Hillary Clinton en las elecciones presidenciales de 2016. El presidente Trump y otros conservadores han afirmado que YouTube y otras redes sociales están sesgadas en contra de los puntos de vista de la derecha, y han utilizado derribos como los anunciados por YouTube el miércoles como evidencia de esas afirmaciones. En realidad, YouTube ha sido una bendición para los hiperpartidistas de todos lados. Les ha permitido eludir a los guardianes tradicionales y transmitir sus puntos de vista a las audiencias principales, y ha ayudado a comentaristas que alguna vez fueron oscuros a construir lucrativos negocios de medios. También ha sido una herramienta útil de reclutamiento para grupos de extrema derecha. Bellingcat, un sitio de noticias de investigación, analizó mensajes de lejanos salas de chat correctas y descubrió que se citaba a YouTube como la causa más frecuente de "pilling rojo" de los miembros, un término del argot de Internet para referirse a la conversión a creencias de extrema derecha. Un grupo de investigación europeo, VOX-Pol, realizó un [análisis] por separado (https://www.voxpol.eu/download/vox-pol_publication/AltRightTwitterCensus.pdf) de casi 30 000 cuentas de Twitter afiliadas a la extrema derecha. Descubrió que las cuentas se vinculaban a YouTube con más frecuencia que a cualquier otro sitio. “YouTube ha podido pasar desapercibido porque, hasta hace poco, nadie pensaba en él como un lugar donde se estaba produciendo la radicalización”, dijo Becca Lewis, que estudia el extremismo en línea para la organización sin fines de lucro Data & Society. “Pero es donde los jóvenes obtienen su información y entretenimiento, y es un espacio donde los creadores transmiten contenido político que, a veces, es abiertamente supremacista blanco”. Visité al Sr. Cain en West Virginia después de ver su video de YouTube denunciando a la extrema derecha. Pasamos horas discutiendo su radicalización. Para respaldar sus recuerdos, descargó y me envió todo su historial de YouTube, un registro de más de 12 000 videos y más de 2500 consultas de búsqueda que datan de 2015. Estas entrevistas y puntos de datos forman una imagen de un joven desilusionado, un Internet- grupo inteligente de reaccionarios de derecha y un poderoso algoritmo que aprende a conectar los dos. Sugiere que YouTube puede haber jugado un papel en la dirección de Cain y otros jóvenes como él, hacia la extrema derecha. También sugiere que, con el tiempo, YouTube es capaz de guiarlos en direcciones muy diferentes. Desde una edad temprana, al Sr. Cain le fascinó la cultura de Internet. Cuando era adolescente, navegaba por 4Chan, el foro de mensajes sin ley. Jugaba juegos en línea con sus amigos y devoraba videos de intelectuales que debatían temas cargados como la existencia de Dios. Internet fue un escape. El Sr. Cain creció en los Apalaches posindustriales y fue criado por sus abuelos cristianos conservadores. Era inteligente, pero tímido y socialmente torpe, y se labró una identidad durante la escuela secundaria como un punk contracultural. Fue a la universidad comunitaria, pero la abandonó después de tres semestres. Quebrado y deprimido, resolvió arreglar sus cosas. Empezó a buscar ayuda en el mismo lugar donde buscaba todo: YouTube. Un día, a fines de 2014, YouTube recomendó un video de autoayuda de Stefan Molyneux, un presentador de un programa de entrevistas canadiense y filósofo autoproclamado. Al igual que el Sr. Cain, el Sr. Molyneux tuvo una infancia difícil y habló de superar las dificultades a través de la superación personal. Parecía inteligente y apasionado, y luchó con grandes preguntas como el libre albedrío, junto con consejos prácticos sobre temas como citas y entrevistas de trabajo. El Sr. Molyneux, quien se describe a sí mismo como un “anarcocapitalista”, también tenía una agenda política. Era un defensor de los derechos de los hombres que decía que el feminismo era una forma de socialismo y que las políticas progresistas de género estaban frenando a los hombres jóvenes. Ofreció comentarios conservadores sobre la cultura pop y los acontecimientos actuales, explicando por qué "Frozen" de Disney era una alegoría sobre la vanidad femenina, o por qué la muerte a tiros de un adolescente negro desarmado por parte de un policía blanco era una prueba de los peligros de la "cultura del rap". El Sr. Cain era un liberal que se preocupaba por la justicia social, se preocupaba por la desigualdad de riqueza y creía en el cambio climático. Pero encontró fascinantes las diatribas de Molyneux, incluso cuando no estaban de acuerdo. “Estaba dispuesto a abordar los problemas de los hombres jóvenes directamente, de una manera que nunca antes había escuchado”, dijo Cain. En 2015 y 2016, cuando el Sr. Cain profundizó en sus recomendaciones de YouTube, descubrió todo un universo de creadores de derecha. Con el tiempo, vio docenas de clips de Steven Crowder, un comediante conservador, y Paul Joseph Watson, un destacado teórico de la conspiración de derecha que fue excluido por Facebook este año. Quedó fascinado por Lauren Southern, una activista canadiense de extrema derecha, a quien comenzó a referirse como su "fashy bae" o enamoramiento fascista. Estas personas no eran todos demagogos gritones. Eran animadores, construían su audiencia con sketches satíricos, debates y entrevistas con creadores de ideas afines. Algunos de ellos eran parte de la derecha alternativa, una cohorte suelta de activistas pro-Trump que intercalaron el nacionalismo blanco entre capas de sarcasmo en Internet. Otros se consideraban a sí mismos “alt-lite”, o simplemente antiprogresistas. Estos creadores también estaban activos en Facebook y Twitter. Pero YouTube era su sede y el lugar donde podían ganarse la vida vendiendo productos y obteniendo una parte del dinero gastado en anuncios que acompañaban a sus videos. Pocos de ellos tenían vínculos abiertos con grupos conservadores establecidos, y en sus canales se hablaba poco sobre recortes de impuestos o política comercial. En cambio, se unieron en torno a temas como la libertad de expresión y el antifeminismo, presentándose como rebeldes que dicen la verdad y luchan contra los "guerreros de la justicia social" sin sentido del humor. Sus videos parecían episodios de una telenovela de larga duración, con un flujo constante de nuevos héroes y villanos. Para el Sr. Cain, todo esto se sentía como un conocimiento prohibido, como si, con solo ver algunos videos de YouTube, lo hubieran dejado entrar en un club exclusivo. “Cuando encontré estas cosas, sentí que estaba persiguiendo verdades incómodas”, me dijo. “Sentí que me estaba dando poder, respeto y autoridad”. Si la alienación fue un ingrediente en la radicalización del Sr. Cain, y los partidarios persuasivos como el Sr. Molyneux fueron otro, el tercero fue una serie de decisiones de productos que tomó YouTube a partir de 2012. En marzo de ese año, los ingenieros de YouTube hicieron una actualización al algoritmo de recomendaciones del sitio. Durante años, el algoritmo había sido programado para maximizar las vistas, mostrando a los usuarios videos en los que era probable que hicieran clic. Pero los creadores habían aprendido a jugar con el sistema, inflando sus vistas publicando videos con títulos exagerados o eligiendo imágenes en miniatura lascivas. En respuesta, los ejecutivos de YouTube anunciaron que el algoritmo de recomendación daría más peso al tiempo de visualización que a las visualizaciones. De esa forma, se alentaría a los creadores a hacer videos que los usuarios terminarían, los usuarios estarían más satisfechos y YouTube podría mostrarles más anuncios. La apuesta valió la pena. A las pocas semanas del cambio de algoritmo, la empresa informó que el tiempo de visualización general estaba aumentando, incluso cuando el número de puntos de vista se redujo. Según un [informe] de 2017 (https://www.theverge.com/2017/8/30/16222850/youtube-google-brain-algorithm-video-recommendation-personalized-feed), el tiempo de visualización de YouTube creció un 50 % al año. año durante tres años consecutivos. Un mes después de modificar su algoritmo, YouTube cambió sus reglas para permitir que todos los creadores de videos publique anuncios junto con sus videos y obtenga una parte de los ingresos que generaron. Anteriormente, solo los canales populares que habían sido examinados por YouTube podían publicar anuncios. Ninguno de estos cambios pretendía beneficiar a la extrema derecha, y el algoritmo de YouTube no tenía una preferencia inherente por el contenido político extremo. Trató un monólogo nacionalista blanco de la misma manera que una portada de Ariana Grande o un tutorial de glaseado de pastel. Pero la extrema derecha estaba bien posicionada para capitalizar los cambios. Muchos creadores de derecha ya hicieron largos ensayos en video o publicaron versiones en video de sus podcasts. Sus mensajes incendiarios fueron más atractivos que la tarifa más suave. Y ahora que podían ganar dinero con sus videos, tenían un incentivo financiero para producir la mayor cantidad de material posible. Algunos canales progresistas de YouTube florecieron entre 2012 y 2016. Pero quedaron eclipsados por los creadores de la derecha, que habían desarrollado una sensación intuitiva de la forma en que funcionaba la plataforma de YouTube y estaban en mejores condiciones para aprovechar una ola emergente de populismo de derecha. “No estoy seguro de que la izquierda entienda la monumental paliza que se les da en YouTube”, tuiteó Watson, el teórico de la conspiración, en 2017. Varios empleados actuales y anteriores de YouTube, que hablarían solo con la condición de anonimato porque habían firmado acuerdos de confidencialidad, dijo que los líderes de la empresa estaban [obsesionados] run-rampant) con un compromiso cada vez mayor durante esos años. Los ejecutivos, dijeron las personas, rara vez consideraron si los algoritmos de la compañía estaban impulsando la difusión de contenido político extremo y odioso. Guillaume Chaslot, exingeniero de YouTube que desde entonces se ha convertido en crítico del sistema de recomendaciones de la empresa, dijo este año que los algoritmos de YouTube se diseñaron para “aumentar el tiempo que las personas gastar en línea, porque genera más anuncios”. En 2015, un equipo de investigación de Google Brain, la aclamada división de inteligencia artificial de Google, comenzó a reconstruir el sistema de recomendaciones de YouTube en torno a las redes neuronales, un tipo de IA. que imita el cerebro humano. En una entrevista de 2017 con The Verge, un ejecutivo de YouTube dijo que la El nuevo algoritmo fue capaz de atraer a los usuarios más profundamente a la plataforma al descubrir "relaciones adyacentes" entre videos que un humano nunca identificaría. El nuevo algoritmo funcionó bien, pero no fue perfecto. Un problema, según varios de los empleados actuales y anteriores de YouTube, es que la A.I. tendía a encasillar a los usuarios en nichos específicos, recomendando videos que eran similares a los que ya habían visto. Eventualmente, los usuarios se aburrían. Los investigadores de Google Brain se preguntaron si podrían mantener a los usuarios de YouTube interesados durante más tiempo dirigiéndolos a diferentes partes de YouTube, en lugar de alimentar sus intereses existentes. Y comenzaron a probar un nuevo algoritmo que incorporaba un tipo diferente de IA, llamado aprendizaje por refuerzo. La nueva IA, conocida como Reinforce, era una especie de máquina de adicción a largo plazo. Fue diseñado para maximizar la participación de los usuarios a lo largo del tiempo al predecir qué recomendaciones expandirían sus gustos y harían que miraran no solo un video más, sino muchos más. Reforzar fue un gran éxito. En una charla en un A.I. conferencia en febrero, Minmin Chen, un investigador de Google Brain, dijo que fue el lanzamiento más exitoso de YouTube en dos años. Las vistas en todo el sitio aumentaron casi un 1 por ciento, dijo, una ganancia que, a la escala de YouTube, podría representar millones de horas más de tiempo de visualización diario y millones de dólares más en ingresos publicitarios por año. Agregó que el nuevo algoritmo ya estaba comenzando a alterar el comportamiento de los usuarios. “Realmente podemos guiar a los usuarios hacia un estado diferente, en lugar de recomendar contenido que les resulte familiar”, dijo la Sra. Chen. Después de ver una grabación de la charla de la Sra. Chen, un portavoz de YouTube confirmó que la empresa había incorporado el aprendizaje por refuerzo en su sistema de recomendación. Pero él cuestionó su afirmación de que fue el cambio más exitoso de YouTube en dos años. Agregó que el aprendizaje por refuerzo estaba destinado a hacer que las recomendaciones fueran más precisas, al neutralizar el sesgo del sistema hacia el contenido popular. Pero los cambios de YouTube nuevamente jugaron a favor de los creadores de extrema derecha, muchos de los cuales ya se especializaban en crear videos que presentaban nuevas ideas a los espectadores. Sabían que un video que denuncia el sesgo de izquierda en “Star Wars: The Force Awakens” podría despertar a los cinéfilos, o que un jugador que despotricaba sobre el feminismo mientras transmitía sus juegos de Call of Duty podría despertar a otros jugadores con mentalidad política. Y ahora el algoritmo de YouTube buscaba promover el mismo tipo de exploración entre géneros. El sistema de recomendaciones de YouTube no está escrito en piedra. La compañía realiza muchos cambios pequeños cada año y ya introdujo una versión de su algoritmo que se activa después de los principales eventos noticiosos para promover videos de "fuentes autorizadas" sobre teorías de conspiración y contenido partidista. La semana pasada, la compañía anunció que expandiría ese enfoque, de modo que una persona que había visto una serie de videos de teorías de la conspiración sería empujada hacia videos de fuentes de noticias más autorizadas. También dijo que un cambio de enero en su algoritmo para reducir la difusión de los llamados videos "límite" había resultado en un tráfico significativamente menor a esos videos. En entrevistas, los funcionarios de YouTube negaron que el algoritmo de recomendación dirigiera a los usuarios a contenido más extremo. Las pruebas internas de la compañía, dijeron, encontraron justo lo contrario: que los usuarios que miran un video extremo son, en promedio, videos recomendados que reflejan puntos de vista más moderados. Los funcionarios se negaron a compartir estos datos o a dar ejemplos específicos de usuarios a los que se les mostraron videos más moderados después de ver videos más extremos. Sin embargo, los funcionarios enfatizaron que YouTube se dio cuenta de que tenía la responsabilidad de combatir la desinformación y el contenido extremo. “Si bien hemos logrado un buen progreso, nuestro trabajo aquí no ha terminado y continuaremos haciendo más mejoras este año”, dijo Farshad Shadloo, portavoz de YouTube, en un comunicado. Para la noche del 8 de noviembre de 2016, la transformación del Sr. Cain estaba completa. Pasó gran parte de la noche viendo videos de los partidarios de Clinton llorando después de que las elecciones fueran convocadas a favor de Trump. Su historial de visualización de YouTube muestra que a la 1:41 a. m., justo antes de acostarse, encendió una transmisión en vivo organizada por el Sr. Crowder, con el título "¡TRUMP GANA!" “Se sintió como un momento de punk-rock, casi como estar en la escuela secundaria nuevamente”, dijo el Sr. Cain. Ese año, el consumo de YouTube del Sr. Cain se disparó. Consiguió un trabajo empacando cajas en un almacén de muebles, donde escuchaba podcasts y veía videos de sus creadores de YouTube favoritos todo el día. Se quedó dormido con videos de YouTube por la noche, su teléfono apoyado en una almohada. En total, vio casi 4000 videos de YouTube en 2016, más del doble de la cantidad que había visto el año anterior. No todos estos videos eran políticos. El historial de visualización del Sr. Cain muestra que buscó videos sobre sus otros intereses, incluidos los automóviles, la música y el comercio de criptomonedas. Pero la mayor parte de su dieta mediática provino de canales de extrema derecha. Y después de la elección, comenzó a explorar una parte de YouTube con un grupo de creadores más oscuros y radicales. Estas personas no expresaron sus puntos de vista racistas y antisemitas en memes sarcásticos, y no hablaron con silbatos para perros. Un canal dirigido por Jared Taylor, el editor de la revista nacionalista blanca American Renaissance, publicó videos con títulos como “La invasión de refugiados es un suicidio europeo”. Otros publicaron clips de entrevistas con supremacistas blancos como Richard Spencer y David Duke. Cain nunca creyó en los puntos de vista más extremos de la extrema derecha, como la negación del Holocausto o la necesidad de un etnoestado blanco, dijo. Aún así, la ideología de extrema derecha se infiltró en su vida diaria. Comenzó a referirse a sí mismo como un "tradcon", un conservador tradicional, comprometido con las normas de género pasadas de moda. Salió con una mujer cristiana evangélica y peleó con sus amigos liberales. “Fue un poco triste”, dijo Zelda Wait, una amiga del Sr. Cain de la escuela secundaria. “Estaba como: ‘Guau, ¿qué pasó? ¿Cómo llegaste a esto?’”. Algunos de los creadores de YouTube favoritos de Cain también estaban cambiando sus políticas. El Sr. Molyneux, en particular, parecía estar virando más hacia la derecha. Se obsesionó con el “realismo racial”, un tema favorito de los nacionalistas blancos, y asistió a un programa de Infowars para discutir su oposición al multiculturalismo con el Sr. Jones. Presentó a figuras de extrema derecha en su canal, incluido el Sr. Taylor de American Renaissance y Brittany Pettibone, una autodenominada "nacionalista estadounidense" que impulsó la teoría de la conspiración del Pizzagate. A medida que Molyneux promovía a los nacionalistas blancos, su canal de YouTube seguía creciendo. Ahora tiene más de 900.000 suscriptores y sus videos han sido vistos casi 300 millones de veces. El año pasado, él y la Sra. Southern, el "bebé elegante" del Sr. Cain, realizaron una gira de conferencias conjunta en Australia y Nueva Zelanda, donde criticaron el Islam y discutieron lo que consideraban los peligros de la inmigración no blanca. En marzo, después de que un hombre armado nacionalista blanco matara a 50 musulmanes en un par de mezquitas en Christchurch, Nueva Zelanda, el Sr. Molyneux y la Sra. Southern se distanciaron de la violencia, [llamando] (https://twitter.com/StefanMolyneux/status /1106418403177193472) el asesino, un “ecoterrorista” de izquierda y diciendo que vincular el tiroteo con el discurso de extrema derecha fue una “locura total”. Ni el Sr. Molyneux ni la Sra. Southern respondieron a una solicitud de comentarios. El día después de mi solicitud, el Sr. Molyneux subió un video titulado “Una carta abierta a los reporteros corporativos”, en el que negó promover el odio o la violencia y dijo que etiquetarlo como extremista era “solo una forma de difamar ideas sin tener que comprometerse con el contenido de esas ideas.” Dado que las plataformas de redes sociales han prohibido a los activistas de extrema derecha por discursos de odio, acoso y otras conductas dañinas, el Sr. Molyneux y la Sra. Southern se han convertido en defensores vocales de la libertad de expresión que denuncian lo que llaman censura excesiva por parte de las empresas de redes sociales. “Si prohíbes o aplastas el discurso legal de las personas, es como una serpiente de cascabel”, dijo Molyneux en un video. “Cortas el cascabel, pero no cortas la cabeza”. En 2018, casi cuatro años después de que el Sr. Cain comenzara a ver videos de derecha en YouTube, comenzó a aparecer un nuevo tipo de video en sus recomendaciones. Estos videos fueron hechos por creadores de izquierda, pero imitaban la estética de YouTube de derecha, hasta los títulos combativos y el uso burlón de palabras como "triggered" y "snowflake". Un video fue un debate sobre la inmigración entre la Sra. Southern y Steven Bonnell, un YouTuber liberal conocido como Destiny. El Sr. Cain vio el video para animar a la Sra. Southern, pero el Sr. Bonnell era un mejor debatidor, y el Sr. Cain lo declaró ganador a regañadientes. El Sr. Cain también encontró videos de Natalie Wynn, una ex filósofa académica que se conoce con el nombre de ContraPoints. La Sra. Wynn usó disfraces elaborados e hizo actuaciones de estilo drag en las que explicó por qué la cultura occidental no estaba bajo el ataque de los inmigrantes, o por qué la raza era una construcción social. A diferencia de la mayoría de los progresistas que Cain había visto adoptar a la derecha, Bonnell y Wynn eran divertidos y atractivos. Hablaban el idioma nativo de YouTube y no se indignaban con las ideas de extrema derecha. En cambio, les pusieron los ojos en blanco y los hicieron parecer superficiales y poco sofisticados. “Me di cuenta de que la gente de derecha tomaba esta política reaccionaria, anticuada e instintiva, y la empaquetaba como punk rock vanguardista”, me dijo la Sra. Wynn. “Uno de mis objetivos era quitarle la emoción”. Cuando el Sr. Cain vio estos videos por primera vez, los descartó como propaganda de izquierda. Pero miró más y comenzó a preguntarse si la gente como la Sra. Wynn tenía razón. Sus videos utilizaron de manera persuasiva investigaciones y citas para refutar los puntos de conversación derechistas que él había absorbido. “Seguí viendo más y más de ese contenido, simpatizando y empatizando con ella y también viendo eso, guau, ella realmente sabe de lo que está hablando”, dijo el Sr. Cain. La Sra. Wynn y el Sr. Bonnell son parte de un nuevo grupo de YouTubers que están tratando de construir un contrapeso al flanco de extrema derecha de YouTube. Este grupo se llama a sí mismo BreadTube, una referencia al libro de 1892 del anarquista de izquierda Peter Kropotkin, “La conquista del pan”. También incluye a personas como Oliver Thorn, un filósofo británico que presenta el canal PhilosophyTube, donde publica videos sobre temas como la transfobia, el racismo y la economía marxista. El núcleo de la estrategia de BreadTube es una especie de secuestro algorítmico. Al hablar sobre muchos de los mismos temas que los creadores de extrema derecha y, en algunos casos, al responder directamente a sus videos, los YouTubers de izquierda pueden recomendar sus videos a la misma audiencia. “Natalie y Destiny hicieron un puente a mi lado”, dijo el Sr. Cain, “y fue lo suficientemente interesante y convincente como para cruzarlo”. BreadTube es todavía pequeño. Wynn, la figura más destacada del movimiento, tiene 615.000 suscriptores, una pequeña fracción de la audiencia atraída por los mayores creadores de derecha. “Desafortunadamente, la derecha alternativa tuvo una gran ventaja para encontrar formas de atraer a los hombres blancos”, dijo Emerican Johnson, un YouTuber que dirige un canal de izquierda llamado Non-Compete. Llegamos tarde a la fiesta. Pero creo que construiremos una narrativa que se mantendrá firme contra esa narrativa de la derecha alternativa”. Después del tiroteo en Nueva Zelanda, el Sr. Cain decidió intentar ayudar. Recientemente abrió su propio canal de YouTube, Faraday Speaks, un homenaje al científico del siglo XIX Michael Faraday, donde habla sobre política y eventos actuales desde una perspectiva de izquierda. Quiere mostrar a los jóvenes una salida de la extrema derecha antes de que se produzca más violencia nacionalista blanca. “Tienes que llegar a la gente a su nivel, y parte de eso es humor vanguardista, memes vanguardistas”, dijo. “Tienes que empatizar con ellos, y luego tienes que darles el espacio para sacar todas estas ideas de su cabeza”. Poco después de que se subió su primer video, el Sr. Cain comenzó a recibir amenazas de trolls de extrema derecha en 4Chan. Uno lo llamó traidor e hizo referencia a colgarlo. Fue entonces cuando compró el arma. Hace varias semanas, se mudó de West Virginia y está trabajando en un nuevo trabajo mientras desarrolla su canal de YouTube. Lo más sorprendente de la nueva vida del Sr. Cain, en la superficie, es lo similar que se siente a la anterior. Todavía ve docenas de videos de YouTube todos los días y se cuelga de las palabras de sus creadores favoritos. Todavía es difícil, a veces, decir dónde se detiene el algoritmo de YouTube y comienza su personalidad. Quizás esto no debería ser una sorpresa. Nuestra cultura política ahora se basa en gran medida en plataformas de Internet que cambian de forma, lo que ha hecho que cambiar las lealtades partidistas sea tan fácil como cambiar los peinados. Es posible que los jóvenes vulnerables como el Sr. Cain se alejen de los grupos radicales a medida que crezcan y encuentren estabilidad en otros lugares. También es posible que este tipo de polarización de latigazo esté aquí para quedarse a medida que las facciones políticas ganan y pierden tracción en línea. Cerca del final de nuestra entrevista, le dije al Sr. Cain que me parecía extraño que hubiera salido con éxito de una madriguera de conejo de YouTube de derecha, solo para saltar a una madriguera de conejo de YouTube de izquierda. Le pregunté si había considerado reducir por completo su consumo de videos y reconstruir algunas de sus relaciones fuera de línea. Dudó, y parecía un poco confundido. A pesar de todos sus problemas, dijo, YouTube sigue siendo el lugar donde se pelean y se ganan las batallas políticas. Dejar la plataforma significaría esencialmente abandonar el debate. Sin embargo, admitió que necesitaba pensar críticamente sobre los videos que veía. “YouTube es el lugar para publicar un mensaje”, dijo. “Pero ahora he aprendido que no puedes ir a YouTube y pensar que estás recibiendo algún tipo de educación, porque no es así”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd