Incidentes Asociados

Cuando el estudiante universitario etíope Moti Dereje inició sesión en su cuenta de Facebook a fines de noviembre de 2018, esperaba ver las actualizaciones habituales de sus amigos y familiares.
En cambio, el joven de 19 años, que estudiaba en la capital, Addis Abeba, vio una publicación impactante.
“Mientras actualizaba mi fuente de noticias, vi el cadáver de mi padre tirado allí”, dijo al podcast The Comb de la BBC.
El Sr. Moti no solo quedó devastado al ver una imagen tan horrible, sino que así fue como descubrió que su padre había sido asesinado.
"Me congelé un poco en ese momento. Fue realmente impactante para mí", dice.
Con Etiopía experimentando disturbios políticos en varias regiones durante los últimos años, las redes sociales se han inundado con imágenes gráficas y videos, desinformación y publicaciones que incitan a la violencia.
Los activistas han pedido que se haga más para moderar las plataformas y eliminar dicho contenido antes de que cause daño.
Para el Sr. Moti, en lugar de ver la foto eliminada, comenzó a ver más publicaciones que mostraban la misma imagen.
Su padre, un ex parlamentario que trabajaba como administrador universitario, fue objeto de un asesinato político en el oeste de Oromia.
La región estaba pasando por un período de agitación en ese momento con frecuentes asesinatos.
"Es como si estuvieran celebrando haberlo matado. De hecho, fue doloroso", explica el Sr. Moti.
La BBC ha visto 15 de estas publicaciones, que Moti dice que informó a Facebook con la esperanza de que fueran eliminadas.
Los Estándares de la comunidad de Facebook establecen que eliminará "videos y fotos que muestren la muerte violenta de alguien cuando un miembro de la familia solicite su eliminación".
Pero durante más de cuatro años, y después de que Moti dijera que reportó las publicaciones varias veces, permanecieron en línea.
Solo se aplicó una advertencia de contenido gráfico a algunas de las imágenes.
"A veces me deprimo y no puedo evitar que mi mano busque su nombre y revise las publicaciones. Creo que estoy un poco traumatizado", dice Moti.
Cuando la BBC se acercó a la empresa matriz de Facebook, Meta, para hacer comentarios, acordó que, si bien las imágenes por sí solas no violaban [su política sobre contenido violento y gráfico] (https://transparency.fb.com/en-gb/policies/community-standards /violent-graphic-content/), eliminaría las publicaciones debido a la solicitud de un miembro de la familia.
Todas las publicaciones que muestran la foto del padre muerto del Sr. Moti ahora han sido eliminadas.
Actualmente no existe un mecanismo en el sistema de informes de Facebook para que los miembros de la familia realicen estas solicitudes, pero Meta le dijo a la BBC que estaba probando un nuevo formulario para permitir esto.
'Contenido etíope ignorado'
Ha aumentado la preocupación por el volumen de contenido gráfico y discurso de odio que se comparte en las redes sociales etíopes.
Este era un problema antes de 2020, pero cuando estalló la guerra en la región norte de Tigray en noviembre de ese año, la cantidad de violencia que llegaba a las noticias de la gente aumentó drásticamente.
En 2021, la Junta de Supervisión de Facebook [recomendó que la empresa encargara una investigación independiente específicamente para Etiopía] (https://www.oversightboard.com/decision/FB-MP4ZC4CC), para revisar cómo se ha utilizado la plataforma para difundir el discurso de odio y agregar a la violencia.
Esta revisión no se ha realizado. La BBC le preguntó a Meta sobre esto, y un portavoz destacó [una respuesta anterior de la empresa] (https://transparency.fb.com/en-gb/oversight/oversight-board-cases/raya-kobo-ethiopia), diciendo evaluaría la viabilidad de dicha revisión, y que anteriormente había realizado múltiples formas de diligencia debida en materia de derechos humanos en relación con Etiopía.
El año pasado se anunció que [Meta estaba siendo demandada por dos etíopes] (https://www.bbc.co.uk/news/technology-63938628) que alegan que el algoritmo de Facebook ayudó a impulsar la propagación viral del odio y la violencia.
Meta respondió diciendo que invirtió mucho en moderación y tecnología para eliminar el odio.
Pero Rehobot Ayalew, un consultor de verificación de hechos con sede en Addis Abeba, cuestiona cuánto están haciendo las empresas de redes sociales para abordar el problema.
"No creo que las plataformas estén prestando tanta atención a Etiopía", dijo a The Comb.
"Sé que Facebook dice que tiene moderadores que se enfocan en Etiopía, que hablan amárico y tigrinya, pero no sabemos cuántos. Y ni siquiera están trabajando desde Etiopía, están trabajando en Kenia".
El impacto de esto, según la Sra. Rehobot, es que el contenido violento a menudo permanece en línea demasiado tiempo.
"Por lo general, lleva mucho tiempo eliminar una publicación tóxica", dice ella.
'La ira azotada'
La Sra. Rehobot hace referencia a un video que se compartió ampliamente en marzo de 2022, en el que un hombre de Tigrayan fue quemado vivo.
"En primer lugar, la inteligencia artificial por sí sola debería haberlo eliminado", explica.
"Luego, incluso después de que se informó, debería haberse eliminado rápidamente, pero permaneció durante algunas horas".
Captura de imagen,
Un estudio académico del año pasado estimó el total de muertes de civiles en Tigray, causadas por los combates, el hambre y la falta de atención médica, entre 385.000 y 600.000.
Un portavoz de Meta le dijo a la BBC: "Tenemos reglas estrictas que describen lo que está y no está permitido en Facebook e Instagram. El discurso de odio y la incitación a la violencia están en contra de estas reglas e invertimos mucho en equipos y tecnología para ayudarnos a encontrar y eliminar Este contenido.
"Empleamos personal con conocimiento y experiencia local, y continuamos desarrollando nuestras capacidades para detectar contenido infractor en los idiomas más hablados en el país, incluidos amárico, oromo, somalí y tigrinya".
Puede haber algo bueno cuando se llama la atención del público sobre atroces abusos contra los derechos humanos, pero contenido como este también puede usarse para provocar la ira y culpar a grupos étnicos o individuos específicos.
Mientras tanto, miles, si no millones, de etíopes sienten los efectos traumáticos de ver dicho contenido.
En noviembre del año pasado se firmó un acuerdo de paz con el objetivo de poner fin a la guerra en Tigray y comenzar a abordar la grave situación humanitaria que ha provocado.
Se estima que el número de personas muertas es de cientos de miles, y la mayoría de esas muertes se deben al hambre y la falta de suministros médicos como resultado de los combates.
Mientras tanto, los disturbios aún sacuden la región de Oromia, [que ha sido testigo de una creciente rebelión] (https://www.bbc.co.uk/news/world-africa-63710783).
Los activistas temen que la reconciliación en estos casos se vea obstaculizada por la violencia que ronda las redes sociales.
"La gente tiende a creer [los mensajes] y actuar en consecuencia, por lo que las imágenes violentas y destructivas generalizadas seguramente pueden retrasar el proceso de paz y reconciliación", dice la Sra. Rehobot.
Ahora, con 23 años, el Sr. Moti está tratando de seguir adelante con su vida, siguiendo una carrera como videógrafo y fotógrafo, e incluso está haciendo un documental sobre su propia experiencia.
"Creo que es el momento de contar mi propia historia tratando de defenderme y tal vez, si tengo éxito, tal vez pueda lograr un cambio", dice.
Pero dice que el predominio del contenido gráfico lo preocupará hasta que esté bajo control.
“Cada vez que veo un cadáver publicado en línea o en Facebook debido a la guerra de Etiopía, me siento realmente triste. Alguien va a sentir lo que he pasado.
"Realmente me mata".