Incidentes Asociados

El 3 de noviembre de 2021, Meareg Amare, profesor de química en la Universidad de Bahir Dar en Etiopía, fue asesinado a tiros frente a su casa. Amare, de etnia tigrayana, había sido objeto de una serie de publicaciones en Facebook el mes anterior, alegando que había robado equipos de la universidad, los había vendido y había usado las ganancias para comprar propiedades. En los comentarios, la gente pedía su muerte. El hijo de Amare, el investigador Abrham Amare, apeló a Facebook para que eliminaran las publicaciones, pero no supo nada durante semanas. Ocho días después del asesinato de su padre, Abrham recibió una respuesta de Facebook: una de las publicaciones dirigidas a su padre, compartida por una página con más de 50.000 seguidores, había sido eliminada.
“Hago personalmente responsable a Facebook por el asesinato de mi padre”, dice.
Hoy, Abrham, así como su colega investigadora y asesora legal de Amnistía Internacional, Fisseha Tekle, presentaron una demanda contra Meta en Kenia, alegando que la empresa ha permitido que el discurso de odio prolifere en la plataforma, lo que ha provocado una violencia generalizada. La demanda pide a la empresa que despriorice el contenido odioso en el algoritmo de la plataforma y agregue a su personal de moderación de contenido.
“Ya no se puede permitir que Facebook priorice las ganancias a expensas de nuestras comunidades. Al igual que la radio en Ruanda, Facebook ha avivado las llamas de la guerra en Etiopía”, dice Rosa Curling, directora de Foxglove, una organización sin fines de lucro con sede en el Reino Unido que aborda los abusos de los derechos humanos por parte de gigantes tecnológicos globales. La organización apoya la petición. “La empresa tiene herramientas claras disponibles: ajustar sus algoritmos para reducir el odio viral, contratar más personal local y garantizar que estén bien pagados y que su trabajo sea seguro y justo, para evitar que eso continúe”.
Desde 2020, Etiopía se ha visto envuelta en una guerra civil. El primer ministro Abiy Ahmed respondió a los ataques a las bases militares federales enviando tropas a Tigray, una región en el norte del país que limita con la vecina Eritrea. [Informe] de abril (https://www.hrw.org/news/2022/04/06/crimes-against-humanity-and-ethnic-cleansing-ethiopias-western-tigray-zone#_Toc100057514) publicado por Amnistía Internacional y Human Rights Watch encontraron pruebas sustanciales de crímenes contra la humanidad y una campaña de limpieza étnica contra la etnia tigrayana por parte de las fuerzas del gobierno etíope.
Fisseha Tekle, investigador principal de Amnistía Internacional sobre Etiopía, ha implicado aún más a Facebook en la propagación de contenido abusivo que, según la petición, puso en peligro la vida de su familia. Desde 2021, Amnistía y Tekle han recibido críticas generalizadas de los partidarios de la campaña Tigray de Etiopía, aparentemente por no culpar directamente a los separatistas de Tigray por las atrocidades de la guerra. De hecho, la investigación de Tekle sobre los innumerables crímenes contra la humanidad en medio del conflicto señaló a los beligerantes de todos los bandos y encontró a los separatistas y al gobierno federal etíope mutuamente culpables de asesinatos y violaciones sistemáticas de civiles. Tekle dijo a los periodistas durante una conferencia de prensa en octubre: “No hay parte inocente que no haya cometido violaciones de derechos humanos en este conflicto”.
En una declaración que Foxglove compartió con WIRED, Tekle habló de ser testigo "de primera mano" del supuesto papel de Facebook en empañar la investigación destinada a arrojar luz sobre las masacres patrocinadas por el gobierno, y describió las plataformas de redes sociales que perpetúan el odio y la desinformación como corrosivas para el trabajo de los defensores de los derechos humanos.
Facebook, que es utilizado por más de 6 millones de personas en Etiopía, ha sido una vía clave a través de la cual se han difundido narrativas que apuntan y deshumanizan a los tigrayanos. En una [publicación] de Facebook de julio de 2021 (https://www.facebook.com/112704996810839/posts/573861097361891/) que permanece en la plataforma, el primer ministro Ahmed se refirió a los rebeldes de Tigrayan como "malas hierbas" que deben ser arrancadas. Sin embargo, los Facebook Papers revelaron que la empresa carecía de la capacidad para moderar adecuadamente el contenido en la mayoría de los [más de 45 idiomas] del país. ](https://translatorswithoutborders.org/language-data-for-ethiopia#:~:text=There%20are%20 between%2045%20and,Amharic%20as%20their%20main%20language.).
Los documentos filtrados compartidos por la denunciante de Facebook, Frances Haugen, muestran que el liderazgo de la empresa matriz Meta se mantuvo bien informado sobre el potencial de la plataforma para exacerbar la violencia política y étnica durante la guerra de Tigray, lo que atrajo a Etiopía a la atención especial del principal equipo de respuesta y riesgo de la empresa. Al menos para 2021, según muestran los documentos, el conflicto en el país había generado suficientes alarmas como para justificar la formación de una operación similar a una sala de guerra conocida como IPOC, un proceso que Facebook creó en 2018 para responder rápidamente a los "momentos de crisis" políticos.
En relación con sus procesos habituales de moderación de contenido, IPOC se ve internamente como un bisturí, desplegado no solo para anticipar amenazas emergentes, sino también para clasificar casos de "abuso abrumador" provocado por puntos críticos políticos. Esto incluye el uso de las llamadas medidas de "romper el cristal": docenas de "palancas" que los equipos de IPOC pueden desplegar durante eventos excepcionalmente incitadores para sofocar los picos de discurso de odio en la plataforma. En los EE. UU., por ejemplo, esto incluyó las elecciones de noviembre de 2020 y el posterior ataque al Capitolio de los EE. UU.
En su testimonio ante el Senado de los EE. UU. el otoño pasado, Haugen comparó la violencia en Etiopía con el genocidio de más de 25,000 musulmanes rohingya en Myanmar, crímenes de guerra por los cuales Facebook ha sido condenado internacionalmente por su papel en la instigación, por el Consejo de Derechos Humanos de las Naciones Unidas , entre otros. "Lo que vimos en Myanmar y ahora estamos viendo en Etiopía son solo los capítulos iniciales de una historia tan aterradora que nadie quiere leer el final", dijo Haugen, exgerente de productos de Facebook, a los legisladores.
Hasta diciembre de 2020, Meta carecía de clasificadores de incitación al odio para el oromo y el amárico, dos de los principales idiomas que se hablan en Etiopía. Para compensar su personal inadecuado y en ausencia de clasificadores, el equipo de Meta buscó otros proxies que les permitieran identificar contenido peligroso, un método conocido como [moderación basada en la red] (https://restofworld.org/2021/why -facebook-sigue-fallando-en-etiopia/). Pero el equipo tuvo problemas porque descubrió, por razones que no están claras de inmediato, que los usuarios etíopes eran mucho menos propensos a realizar acciones que Facebook había usado durante mucho tiempo para ayudar a detectar el discurso de odio, que incluía la aparición de demasiadas reacciones faciales "enojadas". Una propuesta interna sugirió deshacerse de este modelo por completo, reemplazándolo por uno que le dé mayor peso a otras acciones "negativas", como que los usuarios dejen de gustar las páginas u oculten publicaciones. No está claro en los documentos si la propuesta fue aceptada.
En su hoja de ruta de 2021, Meta designó a Etiopía como un país en riesgo "grave" de violencia, y en una evaluación de la respuesta de la empresa al contenido violento e incitador, clasificó su propia capacidad en Etiopía como 0 de 3. Sin embargo, en En otro documento, un miembro del personal de Meta reconoció que la empresa carecía de “capacidad de revisión humana” para Etiopía en el período previo a las elecciones del país.
Los peticionarios han solicitado al tribunal superior que emita una declaración que responsabilice a Meta por violar una serie de derechos básicos garantizados por la Constitución de Kenia de 2010: el derecho a la libertad de expresión y asociación; el derecho a no ser objeto de violencia ni a que se divulgue innecesariamente información sobre su familia o asuntos privados; y el derecho a la igual protección ante la ley, entre otros. Además, los peticionarios han pedido a la corte que ordene el establecimiento de un fondo para las víctimas de más de $2 mil millones, y la propia corte distribuirá los fondos caso por caso. Por último, solicitaron al tribunal que obligue a Facebook a declarar que sus algoritmos ya no promoverán contenido incitador, odioso y peligroso y lo degradarán donde sea que se encuentre, además de implementar un nuevo protocolo de mitigación de crisis "cualitativamente equivalente a los implementados en el US”, para Kenia y todos los demás países cuyo contenido Meta modera desde Nairobi.
“Kenya es el centro de moderación de contenido para publicaciones en oromo, tigrinya y amárico. Estos son los únicos tres idiomas etíopes, de los 85 que se hablan en el país, que los moderadores de contenido actuales de Facebook pueden intentar cubrir”, dice Curling. “Actualmente hay 25 moderadores de contenido de Facebook trabajando en contenido relacionado con Etiopía para un país de 117 millones de habitantes. Las decisiones de estas personas, obligadas a trabajar en condiciones horribles e injustas, sobre qué publicaciones se eliminan y qué permanece en línea se toman en Kenia, y son los tribunales de Kenia, por lo tanto, los que deben determinar el desafío legal de ambos hombres”.
La portavoz de Meta, Sally Aldous, le dijo a WIRED que el discurso de odio y la incitación a la violencia están en contra de las políticas de la compañía. “Nuestro trabajo de seguridad e integridad en Etiopía está guiado por los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales”, dice. “Empleamos personal con conocimiento y experiencia local, y continuamos desarrollando nuestras capacidades para detectar contenido infractor en los idiomas más hablados en el país, incluidos amárico, oromo, somalí y tigrinya”.