Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1382

Incidentes Asociados

Incidente 821 Reporte
#LekkiMassacre: Why Facebook labelled content from October 20 incident ‘false’

Loading...
#LekkiMassacre: ¿Por qué Facebook etiquetó el contenido del incidente del 20 de octubre como "falso"?
techpoint.africa · 2020

El miércoles 21 de octubre de 2020, varios contenidos que contenían imágenes relacionadas con el desafortunado incidente ocurrido el martes en la puerta de peaje de Lekki en Lagos, Nigeria, se marcaron como información errónea en Facebook e Instagram.

El impactante incidente que involucró el asesinato de un número no confirmado de manifestantes por parte del ejército comenzó el martes por la noche. Las víctimas fueron manifestantes de #EndSARS que permanecieron en el lugar de la protesta después de que el gobernador del estado de Lagos, Babajide Sanwoolu, impusiera un toque de queda de 24 horas, programado para comenzar a las 9 p.m., para sofocar las actividades de los secuestradores de protestas en el estado.

Informes de testigos oculares revelaron que hombres vestidos con uniformes militares, que se cree que son oficiales del ejército nigeriano, se acercaron y dispararon contra la multitud mientras los manifestantes de #EndSARS ondeaban la bandera nigeriana y cantaban el himno nacional.

Este espantoso evento, que muchos piensan que fue premeditado debido a los sucesos anteriores (desinstalar la cámara de CCTV, apagar la valla publicitaria y desconectar las luces de la calle que conducen al lugar), ha sido etiquetado como "noticias falsas" por el ejército nigeriano.

A pesar de esto, el Ejército aún tiene que ofrecer cuáles son exactamente las "noticias reales" sobre ese evento.

Mientras tanto, escenas en vivo de víctimas de disparos que luchan por mantenerse con vida y cuerpos envueltos en banderas ensangrentadas se compartieron en Instagram a medida que las desarrollaba un popular disk jockey, DJ Switch. Posteriormente, las imágenes relacionadas circularon a través de las plataformas de redes sociales, pero esto no pareció ir bien con la compañía de tecnología global, Facebook en todas sus plataformas.

En Instagram y Facebook, imágenes del personal del Lekki Concession Center (LCC) que presuntamente vino a desinstalar la cámara de circuito cerrado de televisión de la escena unas horas después del triste incidente, los manifestantes permanecieron juntos mientras sostenían la bandera de Nigeria, una bandera de Nigeria ensangrentada, informaron sobrevivientes en el hospital y los cadáveres de la escena están todos marcados como información falsa; invariablemente sugiriendo que el ataque militar del 20 de octubre fue falso.

Si bien las imágenes no se eliminan por completo, se han vuelto hastiadas con una advertencia que dice: “Información falsa. La misma información fue verificada en otra publicación por verificadores de hechos independientes.“

Facebook utiliza un sistema híbrido de moderadores humanos e inteligencia artificial (IA) para verificar la información errónea. Se asocia con organizaciones de verificación de datos independientes certificadas (más de 27 socios en 88 países) para identificar, revisar y confirmar contenido potencialmente inexacto para frenar la desinformación viral. Este contenido generalmente se marca primero como inexacto por los comentarios de los usuarios, la tecnología de señales de Facebook o los verificadores de hechos.

Una vez que se confirma que es inexacta, la visibilidad de la publicación en las líneas de tiempo se reduce y, si debe verse, se etiqueta en función de la calificación de los verificadores de datos: falso, parcialmente falso, alterado, falta de contexto, sátira y verdadero.

Sin embargo, los editores pueden disputar una calificación y solicitar que se vuelva a verificar la validez del contenido. Pero los usuarios no pueden disputar la calificación de ningún contenido que no hayan creado.

Por supuesto, estas empresas de verificación de hechos no están exentas de acusaciones de parcialidad. Además, Facebook aún tiene que descubrir por completo qué significa "información inexacta". El procedimiento de verificación de hechos se hizo necesario después de que la plataforma se usara para impulsar el discurso de odio que condujo a los asesinatos masivos de la minoría rohingya en Myanmar en 2018.

Según Facebook, los verificadores de hechos independientes responsables de Nigeria incluyen Africa Check Nigeria, AFP Nigeria y Dubawa. Cuando Africa Check se unió a la lista de socios en 2018, tenía la intención de centrarse en curas de salud falsas, rumores de delitos falsos, esquemas piramidales y otros tipos de contenido que pueden conducir a malas decisiones y daños físicos.

Irónicamente, uno de los socios de Facebook, AFP, reconoce el informe de Amnistía Internacional Nigeria sobre los asesinatos en Lagos.

Por lo tanto, no está del todo claro cómo llegó Facebook a la conclusión de que el contenido relacionado con #LekkiMassacre era falso. De hecho, aunque están marcados en Facebook e Instagram, YouTube y Twitter parecen aceptarlos. Twitter en particular ha sido la principal plataforma adoptada para impulsar el movimiento #EndSARS, con la validación del CEO de Twitter, Jack Dorsey.

La desinformación no es nueva en las redes sociales, especialmente porque ahora compiten con las nuevas plataformas de medios. Parece que Facebook aún no se ha puesto de acuerdo sobre lo que considera información falsa. Mientras tanto, depende de los usuarios confiar en salas de medios confiables.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd