Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2064

Incidentes Asociados

Incidente 3483 Reportes
YouTube Recommendation Reportedly Pushed Election Fraud Content to Skeptics Disproportionately

Loading...
El algoritmo de YouTube envió reclamos de fraude electoral a los partidarios de Trump, según un informe
arstechnica.com · 2022

Durante años, los investigadores han sugerido que los algoritmos que alimentan el contenido de los usuarios no son la causa de las cámaras de eco en línea, sino que es más probable que se deban a que los usuarios buscan activamente contenido que se alinee con sus creencias. Esta semana, los investigadores del Centro de Medios Sociales y Política de la Universidad de Nueva York mostraron los resultados de un experimento de YouTube que se realizó justo cuando se presentaron las denuncias de fraude electoral en el otoño de 2020. Dicen que sus resultados proporcionan una advertencia importante a la investigación anterior realizada por mostrando evidencia de que en 2020, el algoritmo de YouTube fue responsable de recomendar "desproporcionadamente" contenido de fraude electoral a usuarios más "escépticos sobre la legitimidad de las elecciones para empezar".

Un coautor del estudio, el politólogo James Bisbee de la Universidad de Vanderbilt le dijo a The Verge que aunque los participantes Se recomendó una cantidad baja de videos de negación de las elecciones: un máximo de 12 videos de los cientos de participantes en los que hicieron clic. El algoritmo generó tres veces más para las personas predispuestas a comprar en la conspiración que para las personas que no lo hicieron. "Cuanto más susceptible seas a este tipo de narrativas sobre las elecciones... más contenido recomendarías sobre esa narrativa", dijo Bisbee.

La portavoz de YouTube, Elena Hernández, le dijo a Ars que el informe del equipo de Bisbee "no representa con precisión cómo funcionan nuestros sistemas". Hernández dice: "YouTube no permite ni recomienda videos que presenten afirmaciones falsas de fraude generalizado, errores o fallas en las elecciones presidenciales de EE. UU. de 2020" y los "videos y canales más vistos y recomendados relacionados con las elecciones provienen de fuentes autorizadas, como canales de noticias".

El equipo de Bisbee afirma directamente en su informe que no intentaron descifrar el enigma de cómo funciona el sistema de recomendaciones de YouTube:

"Sin acceso al algoritmo de secreto comercial de YouTube, no podemos afirmar con confianza que el sistema de recomendación infiere el apetito de un usuario por el contenido de fraude electoral utilizando su historial de reproducción anterior, sus datos demográficos o alguna combinación de ambos. A los efectos de nuestra contribución , tratamos el algoritmo como la caja negra que es y, en cambio, simplemente preguntamos si recomendará de manera desproporcionada contenido de fraude electoral a aquellos usuarios que son más escépticos sobre la legitimidad de las elecciones".

Para llevar a cabo su experimento, el equipo de Bisbee reclutó a cientos de usuarios de YouTube y recreó la experiencia de recomendación haciendo que cada participante completara el estudio conectado a sus cuentas de YouTube. Después de que los participantes hicieran clic en varias recomendaciones, los investigadores registraron cualquier contenido recomendado que se marcara como apoyo, refutación o informe neutral de las afirmaciones de fraude electoral de Trump. Una vez que terminaron de ver los videos, los participantes completaron una larga encuesta compartiendo sus creencias sobre las elecciones de 2020.

Bisbee le dijo a Ars que "el propósito de nuestro estudio no era medir, describir o aplicar ingeniería inversa al funcionamiento interno del algoritmo de YouTube, sino describir una diferencia sistemática en el contenido que recomendaba a los usuarios que estaban más o menos preocupados por las elecciones". fraude." El único propósito del estudio era analizar el contenido que se proporcionaba a los usuarios para probar si los sistemas de recomendación en línea contribuían al "entorno de información polarizado".

"Podemos mostrar este patrón sin aplicar ingeniería inversa al algoritmo de caja negra que utilizan", dijo Bisbee a Ars. "Acabamos de ver lo que se mostraba a la gente real".

Probando el sistema de recomendaciones de YouTube

El equipo de Bisbee informó eso porque el algoritmo de YouTube se basa en los historiales de reproducción y las suscripciones. En la mayoría de los casos, es una experiencia positiva que el contenido recomendado se alinee con los intereses del usuario. Pero debido a las circunstancias extremas que siguieron a las elecciones de 2020, los investigadores plantearon la hipótesis de que el sistema de recomendaciones generaría naturalmente más contenido de fraude electoral para los usuarios que ya se mostraban escépticos sobre la victoria de Joe Biden.

Para probar la hipótesis, los investigadores "controlaron cuidadosamente el comportamiento de los usuarios reales de YouTube mientras estaban en la plataforma". Los participantes iniciaron sesión en sus cuentas y descargaron una extensión del navegador para capturar datos en los videos recomendados. Luego navegaron a través de 20 recomendaciones, siguiendo una ruta específica establecida por los investigadores, como solo hacer clic en el segundo video recomendado desde la parte superior. Cada participante comenzó viendo un video "semilla" asignado al azar (ya sea político o no político) para asegurarse de que el video inicial que vieron no influyera en las recomendaciones posteriores basadas en las preferencias de los usuarios anteriores que el algoritmo reconocería.

Hubo muchas limitaciones en este estudio, que los investigadores describieron en detalle. Quizás lo más importante es que los participantes no eran representativos de los usuarios típicos de YouTube. La mayoría de los participantes eran jóvenes demócratas con educación universitaria que miraban YouTube en dispositivos con Windows. Los investigadores sugieren que el contenido recomendado podría haber sido diferente si más participantes fueran conservadores o republicanos y, por lo tanto, supuestamente más propensos a creer en el fraude electoral.

También hubo un problema en el que YouTube eliminó videos de fraude electoral de la plataforma [en diciembre de 2020](https://www.reuters.com/article/usa-election-youtube/youtube-to-remove-new-videos-that -falsely-claim-fraud-changed-u-s-election-outcome-idINL4N2IP38B), lo que provocó que los investigadores perdieran el acceso a lo que describieron como una cantidad insignificante de videos recomendados a los participantes que no se pudieron evaluar.

El equipo de Bisbee informó que la conclusión clave del informe fue la evidencia preliminar de un patrón de comportamiento del algoritmo de YouTube, pero no una medida real de cómo se difundió la información errónea en YouTube en 2020.

Tensiones entre YouTube y los investigadores

Si bien YouTube dijo que la mayoría de los usuarios accedieron al contenido electoral de fuentes de noticias oficiales, el equipo de Bisbee contó los videos de Fox News y la Casa Blanca entre el contenido de fraude electoral que podría haber influido en los escépticos usuarios de YouTube. Fuentes prominentes dudosas y la tensión entre la protección comprensible de YouTube sobre cómo funciona su algoritmo patentado son factores que contribuyen a la confusión sobre el papel del algoritmo de YouTube en la información errónea que se propaga a los negadores de las elecciones.

El codirector y coautor del estudio del NYU Center for Social Media and Politics, Joshua Tucker, le dijo a Ars que hasta que YouTube trabaje de manera más transparente con más investigadores, "observaremos lo que podamos observar".

"Si las plataformas eligen mantener estos algoritmos en privado, los investigadores interesados en preguntas sobre la exposición del contenido intentarán descubrir sus propias formas de comprender el contenido al que están expuestos los usuarios", dijo Tucker.

Megan Brown, investigadora principal de la Universidad de Nueva York que también contribuyó al estudio, dijo a Ars que "YouTube ha criticado constantemente" los estudios que auditan su algoritmo "por no reflejar con precisión las realidades de lo que les sucede a los usuarios reales". Si bien Brown cree que el programa de investigación de YouTube lanzado a principios de este año es un "gran comienzo" para aumentar la transparencia en la plataforma, los investigadores todavía están limitados por los datos que YouTube elige compartir. Dijo que en el pasado, YouTube criticó estudios basados en datos públicos que proporciona YouTube, y que no está claro en la declaración de YouTube qué aspectos del estudio de NYU no reflejan cómo funciona el sistema de recomendación de YouTube.

"En este estudio, usamos usuarios reales para saber qué se les recomendó durante las elecciones", dijo Brown. "No sabemos qué estándar se debe cumplir para reflejar con precisión lo que se recomienda a los usuarios de YouTube, si la recopilación de las recomendaciones que vieron no cumple con ese estándar".

Un portavoz de YouTube le dijo a Ars que es difícil "sacar conclusiones de este informe" porque los investigadores solo brindan "una muestra parcial de los datos que afirman que se recomendaron a los usuarios" y no "distinguen entre el contenido recomendado por nuestros sistemas, y contenido al que los espectadores se suscriben activamente". YouTube también apunta a la investigación, que el equipo de Bisbee señala que muestra predominantemente que las preferencias del usuario, no el algoritmo, son las culpables del aumento en el contenido extremo. "Las recomendaciones de YouTube en realidad no están dirigiendo a los espectadores hacia contenido extremo", dijo el portavoz de YouTube.

La continua batalla de Google contra las denuncias de fraude electoral


Desde 2020, Google ha adoptado una postura más firme al bloquear activamente la desinformación electoral en YouTube, que según el equipo de Bisbee fue la "red social más popular entre los adultos estadounidenses" en 2020. Más recientemente, Google mantuvo el rumbo antes de las elecciones de mitad de período. , aparentemente todavía luchando para mantener los reclamos de fraude electoral de 2020 fuera de sus plataformas y servicios.

El ejemplo más reciente: después de que [Donald Trump hizo una diatriba de Truth Social](https://www.salon.com/2022/08/29/demands-new-immediately-in-bizarre-truth-social-rant-_partner /) repitiendo los reclamos de fraude electoral de 2020 a principios de esta semana, [Google bloqueó Truth Social de Play Store] (https://www.reuters.com/technology/truth-social-android-app-not-approved-google-play- store-axios-2022-08-30/), citando una moderación de contenido insuficiente. Los informes dicen que Google está preocupado por el potencial de Truth Social para incitar a la violencia, y la creciente investigación del Congreso recientemente hizo un movimiento que indica que Google tiene buenas razones para mantener la preocupación constante sobre los peligros del mundo real que resultan de las afirmaciones de fraude electoral que parecen inflamar la base de Trump.

El jueves, el comité selecto que investiga el ataque del 6 de enero solicitó que el expresidente de la Cámara Newt Gingrich compartiera información sobre cómo los asesores principales ayudaron a Trump a amplificar las afirmaciones falsas sobre las elecciones de 2020 en los anuncios de televisión. El Congreso también quiere que Gingrich explique su participación "en varios otros aspectos del plan para anular las elecciones de 2020 y bloquear la transferencia del poder, incluso después de la violencia del 6 de enero".

A medida que continúa la investigación, Google y el Congreso consideran que las afirmaciones falsas sobre las elecciones están vinculadas de manera crítica a la incitación a la violencia. Reuters tiene una serie que documenta otras preocupaciones de violencia potencialmente inminente vinculada a afirmaciones falsas, incluidas las crecientes "amenazas terroristas de muerte" de los partidarios de Trump. de funcionarios electorales a lo largo de 2021.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd