Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2075

Incidentes Asociados

Incidente 3483 Reportes
YouTube Recommendation Reportedly Pushed Election Fraud Content to Skeptics Disproportionately

Loading...
Fraude electoral, YouTube y la percepción pública de la legitimidad del presidente Biden - Centro de redes sociales y política de la NYU
csmapnyu.org · 2022

Descubrimos que a los más escépticos sobre la legitimidad de las elecciones de 2020 se les recomendaron tres veces más videos relacionados con el fraude electoral que a los participantes menos escépticos.

Resumen

El escepticismo sobre el resultado de las elecciones presidenciales de 2020 en los Estados Unidos condujo a un ataque histórico al Capitolio el 6 de enero de 2021 y representa uno de los mayores desafíos para las instituciones democráticas de los Estados Unidos en más de un siglo. Las narrativas de fraude y teorías de conspiración proliferaron durante el otoño de 2020, encontrando un terreno fértil en las redes sociales en línea, aunque se sabe poco sobre el alcance y los impulsores de esta propagación. En este artículo, mostramos que los usuarios que eran más escépticos sobre la legitimidad de las elecciones tenían más probabilidades de que se les recomendara contenido que presentara narrativas sobre la legitimidad de las elecciones. Nuestros hallazgos subrayan la tensión entre un sistema de recomendación "eficaz" que brinda a los usuarios el contenido que desean y un mecanismo peligroso mediante el cual la información errónea, la desinformación y las conspiraciones pueden llegar a quienes tienen más probabilidades de creerles.

Fondo

Las narrativas de fraude y teorías de conspiración proliferaron alrededor de las elecciones presidenciales de EE. UU. de 2020 y, en última instancia, contribuyeron al histórico ataque del 6 de enero contra el Capitolio. Hay innumerables explicaciones de por qué ocurrió esto, que van desde la creciente polarización masiva hasta la disminución de identidades transversales y las consecuencias perniciosas de las teorías de conspiración y la desinformación en línea. De particular preocupación entre la prensa popular es el papel que desempeñan los algoritmos de recomendación en línea, que se cree que contribuyen a las cámaras de eco, las burbujas de filtro y la radicalización; sin embargo, hay poca evidencia para respaldar esta afirmación en el trabajo académico.

Estudiar

Para explorar esta pregunta, tomamos una muestra de más de 300 estadounidenses con cuentas de YouTube en noviembre y diciembre de 2020. Se les preguntó a los sujetos qué tan preocupados estaban con una serie de aspectos del fraude electoral y luego se les pidió que instalaran una extensión de navegador que registraría la lista. de recomendaciones que se les mostró. Se instruyó a los sujetos para que hicieran clic en un video de YouTube asignado al azar y luego en una de las recomendaciones que se les mostró de acuerdo con una "regla transversal" asignada al azar. Al restringir el comportamiento del usuario de esta manera, pudimos aislar la influencia del algoritmo de recomendación sobre qué usuarios reales se sugerían en tiempo real.

Resultados

Después de analizar los datos de todos los videos recomendados, descubrimos que a los más escépticos sobre la legitimidad de las elecciones se les mostró tres veces más videos relacionados con el fraude electoral que a los menos escépticos: aproximadamente 8 recomendaciones adicionales de aproximadamente 400 videos sugeridos a cada participante del estudio. Si bien la prevalencia general de este tipo de videos fue baja, los hallazgos revelan las consecuencias perjudiciales de un sistema de recomendación que brinda a los usuarios el contenido que desean y ponen en duda la opinión de que los entornos de información en línea están determinados únicamente por la elección del usuario.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd