Incidentes Asociados
La BBC ha descubierto que las pruebas de posibles abusos contra los derechos humanos pueden perderse después de que las empresas de tecnología las eliminen.
Las plataformas eliminan vídeos gráficos, a menudo utilizando inteligencia artificial, pero las imágenes que pueden ayudar en los procesamientos pueden eliminarse sin archivarse.
Meta y YouTube dicen que su objetivo es equilibrar sus deberes de dar testimonio y proteger a los usuarios de contenido dañino.
Pero Alan Rusbridger, miembro del Consejo de Supervisión de Meta, dice que la industria ha sido "demasiado cautelosa" en su moderación.
Las plataformas dicen que tienen exenciones para el material gráfico cuando es de interés público, pero cuando la BBC intentó subir imágenes que documentaban ataques contra civiles en Ucrania, fueron rápidamente eliminadas.
La inteligencia artificial (IA) puede eliminar contenido dañino e ilegal a escala. Sin embargo, cuando se trata de moderar imágenes violentas de guerras, las máquinas carecen de los matices necesarios para identificar violaciones de derechos humanos.
Ihor Zakharenko, ex periodista de viajes, se encontró con esto en Ucrania. Desde la invasión rusa ha estado documentando ataques contra civiles.
La BBC se reunió con él en un suburbio de Kiev, donde hace un año las tropas rusas habían matado a tiros a hombres, mujeres y niños mientras intentaban huir de la ocupación.
Filmó los cadáveres (al menos 17) y los coches incendiados.
Quería publicar los vídeos en línea para que el mundo viera lo sucedido y contrarrestar la narrativa del Kremlin. Pero cuando los subió a Facebook e Instagram, fueron rápidamente eliminados.
"Los propios rusos decían que eran falsos, que no tocaban a civiles, que sólo luchaban con el ejército ucraniano", dijo Ihor.
Subimos las imágenes de Ihor a Instagram y YouTube usando cuentas ficticias.
Instagram eliminó tres de los cuatro videos en un minuto.
Al principio, YouTube aplicó restricciones de edad a los mismos tres, pero 10 minutos después las eliminó todas.
Los vídeos que documentaban los ataques rusos contra civiles fueron eliminados en cuestión de minutos.
Lo intentamos de nuevo, pero no se pudo cargar por completo. Se rechazó una apelación para restaurar los vídeos basándose en que incluían pruebas de crímenes de guerra.
Figuras clave dentro de la industria dicen que existe una necesidad urgente de que las empresas de redes sociales impidan que este tipo de información desaparezca.
"Se puede ver por qué han desarrollado y entrenado sus máquinas para, en el momento en que ven algo que parece difícil o traumático, eliminarlo", dijo Rusbridger a la BBC. La Meta Oversight Board de la que forma parte fue creada por Mark Zuckerberg y es conocida como una especie de "tribunal supremo" independiente para la empresa propietaria de Facebook e Instagram.
"Creo que la siguiente pregunta para ellos es cómo desarrollamos la maquinaria, ya sea humana o IA, para luego tomar decisiones más razonables", añade Rusbridger, ex editor en jefe del Guardian.
Nadie negaría el derecho de las empresas tecnológicas a controlar el contenido, dice la embajadora estadounidense para la Justicia Penal Global, Beth Van Schaak: "Creo que lo que preocupa es cuando esa información desaparece repentinamente".
Las atrocidades de la guerra se están documentando en las redes sociales. Este material puede utilizarse como prueba para ayudar a enjuiciar crímenes de guerra. Pero la BBC ha hablado con personas afectadas por conflictos violentos que han visto a las principales empresas de redes sociales eliminar este contenido.
YouTube y Meta dicen que, según sus exenciones para imágenes gráficas de guerra de interés público, el contenido que normalmente se eliminaría puede mantenerse en línea y su visualización está restringida a adultos. Pero nuestro experimento con los vídeos de Ihor sugiere lo contrario.
Meta dice que responde "a solicitudes legales válidas de agencias encargadas de hacer cumplir la ley en todo el mundo" y "continuamos explorando vías adicionales para apoyar los procesos de responsabilidad internacional... consistentes con nuestras obligaciones legales y de privacidad".
YouTube dice que si bien tiene exenciones para contenido gráfico de interés público, la plataforma no es un archivo. Dice: "Las organizaciones de derechos humanos; activistas, defensores de los derechos humanos, investigadores, periodistas ciudadanos y otras personas que documenten abusos de los derechos humanos (u otros delitos potenciales) deben observar las mejores prácticas para asegurar y preservar su contenido".
La BBC también habló con Imad, propietario de una farmacia en Alepo, Siria, hasta que una bomba de barril del gobierno sirio cayó cerca en 2013.
Recuerda cómo la explosión llenó la habitación de polvo y humo. Al escuchar gritos de ayuda, salió al mercado y vio manos, piernas y cadáveres cubiertos de sangre.
Equipos de televisión locales captaron estas escenas. Las imágenes se publicaron en YouTube y Facebook, pero posteriormente fueron eliminadas.
En el caos del conflicto, los periodistas sirios dijeron a la BBC que sus propias grabaciones de las imágenes originales también fueron destruidas en los bombardeos.
Años más tarde, cuando Imad solicitaba asilo en la UE, le pidieron que presentara documentos que demostraran que se encontraba en el lugar.
"Estaba seguro de que mi farmacia había sido capturada por la cámara. Pero cuando entré en línea, me llevó a un video eliminado".
En respuesta a este tipo de incidentes, organizaciones como Mnemonic, una organización de derechos humanos con sede en Berlín, han intervenido para archivar las imágenes antes de que desaparezcan.
Mnemonic desarrolló una herramienta para descargar y guardar automáticamente pruebas de violaciones de derechos humanos, primero en Siria y ahora en Yemen, Sudán y Ucrania.
Han guardado más de 700.000 imágenes de zonas de guerra antes de que fueran eliminadas de las redes sociales, incluidos tres vídeos que muestran el ataque cerca de la farmacia de Imad.
Cada imagen puede contener una pista clave para descubrir lo que realmente ocurrió en el campo de batalla: el lugar, la fecha o el perpetrador.
Pero organizaciones como Mnemonic no pueden cubrir todas las áreas de conflicto en todo el mundo.
Demostrar que se han cometido crímenes de guerra es increíblemente difícil, por lo que obtener tantas fuentes como sea posible es vital.
"La verificación es como resolver un rompecabezas: se reúnen piezas de información aparentemente no relacionadas para construir una imagen más amplia de lo que sucedió", dice Olga Robinson de BBC Verify.
La tarea de archivar material de código abierto (disponible para prácticamente cualquier persona en las redes sociales) a menudo recae en personas con la misión de ayudar a sus familiares atrapados en un conflicto violento.
Rahwa dice que es su "deber" archivar material de fuente abierta del conflicto en la región de Tigray en Etiopía.
Rahwa vive en Estados Unidos y tiene familia en la región de Tigray en Etiopía, que ha sido azotada por la violencia en los últimos años y donde las autoridades etíopes controlan estrictamente el flujo de información.
Sin embargo, las redes sociales significan que hay un registro visual de un conflicto que de otro modo permanecería oculto al mundo exterior.
"Era nuestro deber", dice Rahwa. "Pasé horas investigando, por lo que cuando ves este contenido, intentas verificarlo usando todas las herramientas de inteligencia de código abierto que puedes conseguir, pero no sabes si tu familia está bien. ".
Los defensores de los derechos humanos dicen que existe una necesidad urgente de un sistema formal para recopilar y almacenar de forma segura el contenido eliminado. Esto incluiría preservar metadatos para ayudar a verificar el contenido y demostrar que no ha sido manipulado.
La señora Van Schaak, embajadora de Estados Unidos para la Justicia Penal Global, dice: "Necesitamos crear un mecanismo mediante el cual esa información pueda preservarse para posibles futuros ejercicios de rendición de cuentas. Las plataformas de redes sociales deberían estar dispuestas a llegar a acuerdos con mecanismos de rendición de cuentas en todo el mundo".
Reporte adicional de Hannah Gelbart y Ziad Al-Qattan