Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2966

Incidentes Asociados

Incidente 4718 Reportes
Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

Loading...
Por qué Facebook sigue fallando en Etiopía
restofworld.org · 2021

A finales de octubre, Dejene Assefa, un activista de Addis Abeba conocido por sus apariciones en la televisión estatal de Etiopía, publicó un mensaje para sus más de 120.000 seguidores en Facebook. La publicación exhortaba a sus compatriotas a levantarse en todo el país y asesinar a miembros del grupo étnico Tigrayan. “La guerra es con aquellos con los que creciste, tu vecino”, escribió en amárico, uno de los principales idiomas de Etiopía. “Si puedes librar tu bosque de estas espinas… la victoria será tuya”. El mensaje se compartió casi 900 veces y atrajo más de 2000 reacciones. Muchas de las respuestas se hicieron eco del llamado a la violencia y prometían seguir el consejo de Dejene.

El ejército federal de Etiopía se encuentra actualmente involucrado en una brutal guerra civil con grupos rebeldes, en su mayoría de la región de Tigray. Según los informes, en Addis Abeba, la policía ha llevado a cabo redadas en toda la ciudad, sacando a rastras de hogares, negocios e incluso iglesias a personas identificadas como de ascendencia tigrayana. En Facebook han proliferado los llamamientos al asesinato y al internamiento masivo de personas de la etnia tigrayana.

“El contenido es uno de los más aterradores que he visto en ninguna parte”, dijo a Rest of World Timnit Gebru, excientífico de datos de Google y experto líder en sesgo en IA, que habla amárico con fluidez. llamado claro y urgente al genocidio. Esto recuerda lo que se vio en Radio Mille Collines en Ruanda”. Radio Television Libre des Mille Collines, una estación creada por extremistas hutu en Ruanda, transmitió llamados a la violencia que ayudaron a desencadenar el genocidio en el país en 1994.

Facebook conoce los riesgos de la desinformación y el discurso de odio en Etiopía, y sabe que no controla el contenido peligroso. En mensajes y documentos internos, publicados como parte de las llamadas filtraciones de Facebook Papers y vistos por Rest of World, la compañía reconoció en 2020 que tiene capacidades de moderación insuficientes en amárico y que las barreras del idioma han impedido que los usuarios informen contenido problemático. Para tratar de llenar el vacío en su comprensión del contexto en Etiopía, la empresa propuso utilizar "modelos basados en redes", un mecanismo opaco, basado en datos y experimental.

El reciente aumento de los discursos de odio en Facebook en Etiopía, que se ha relacionado con la violencia, demuestra que la empresa aún no ha solucionado sus problemas en el país, un año después de una guerra civil que ha dividido al país en líneas étnicas.

“Lo que vi fue impactante. No fue una persona al azar con 10 o 100 o 1000 seguidores. Era un grupo de líderes, con cientos de miles de seguidores, instruyendo claramente a la gente qué hacer”, dijo Gebru. “La parte más impactante fue la urgencia y la forma horrible en que las palabras fueron diseñadas para hacer que la gente actúe ahora”.

La guerra civil de Etiopía estalló a finales de 2020, cuando el primer ministro del país, Abiy Ahmed, envió tropas a la región norteña de Tigray para expulsar a los combatientes que habían atacado bases militares federales. Al principio, las fuerzas del gobierno federal, que finalmente fueron respaldadas por soldados de la vecina Eritrea, parecían tener la ventaja, pero desde entonces han sido rechazadas por un contraataque sostenido. Los grupos de derechos humanos han documentado atrocidades en ambos lados, pero un informe conjunto del Alto Comisionado de las Naciones Unidas para los Refugiados encontró abusos cometidos por las fuerzas gubernamentales, incluidas masacres de personas de etnia tigrayana y la violación con armas de lo que podría ascender a miles de mujeres. El gobierno de EE. UU. está considerando [declarar la campaña como genocidio] (https://abcnews.go.com/Politics/ending-ethiopias-trade-status-us-weighs-sanctions-genocide/story?id=80928248).

En Etiopía, donde los periodistas han sido encarcelados y los medios de comunicación estatales censuran todas las noticias sobre abusos cometidos por el estado y las fuerzas aliadas, la respuesta del gobierno ha sido respaldada por [un ejército de personalidades y activistas de las redes sociales] (https://www.amnesty.org /en/latest/news/2021/11/ethiopia-sweeping-emergency-powers-and-alarming-in-online-hate-speech-as-tigray-conflict-escalates/), que fabrican el consentimiento para la realización de sus fuerzas Varios tienen muchos seguidores en Facebook, que tiene más de 6 millones de usuarios en el país. Estos relatos a menudo han señalado a periodistas, activistas de derechos humanos y cualquier persona que critique al ejército etíope, calificándolos de “traidores”.

El lenguaje deshumanizante dirigido a las minorías étnicas se ha normalizado. En julio, con el cambio de rumbo de la guerra, un frustrado Abiy Ahmed lanzó una diatriba en Facebook prometiendo aplastar a los rebeldes "cancerosos" que también describió como "malas hierbas". Las cuentas de Facebook respaldadas por el gobierno etíope comenzaron a usar los términos para referirse libremente a toda la población étnica Tigrayan.

La retórica en línea no fue solo un reflejo del ambiente político en el país, sino que probablemente contribuyó activamente a empeorar la violencia.

Los documentos internos de Facebook muestran que este año identificó al menos dos campañas de grupos de la diáspora, una principalmente con sede en Egipto y la otra parcialmente con sede en Sudán, que supuestamente intentaban avivar las divisiones étnicas. Uno estaba afiliado a la milicia Fano, que ha sido acusada de abusos contra los derechos humanos, el otro a un grupo Oromo que pedía violencia contra el Estado. Los militantes oromo también están librando una guerra contra el gobierno federal.

“El contenido en Facebook ha tenido impactos en la vida real de los civiles”, dijo Yohannes Ayalew, exprofesor de derecho en la Universidad Bahir Dar en Etiopía, ahora candidato a doctorado en la Universidad Monash en Australia, a Rest of World. Señaló un aumento en discursos de odio y llamamientos a la “venganza” en Facebook, luego del asesinato del cantante y activista etíope Hachalu Hundessa, en junio de 2020. Eso condujo a una oleada de [violencia brutal de turbas] (https://mg.co.za/ africa/2020-07-14-mi-hijo-murió-el-peor-tipo-de-muerte-horrible-detalles-de-disturbios-violentos-en-etiopia/), en el que cientos de civiles de etnia amhara y miembros de otras minorías en la región de Oromia en Etiopía fueron asesinadas.

“El contenido de Facebook ha tenido un impacto real en la vida de los civiles”.

Durante su testimonio ante un subcomité del Senado de EE. UU. en octubre, la denunciante de Facebook, Frances Haugen, dijo que los fracasos de la empresa en Etiopía podrían coincidir con los de Myanmar, donde funcionarios de la ONU alegaron que la empresa había desempeñado un [papel destacado en la facilitación de la violencia genocida] (https://www. .reuters.com/article/us-myanmar-rohingya-facebook-idUSKCN1GO2PN).

Los documentos internos muestran las razones por las que la empresa fracasó. Facebook sabía que no tenía suficiente cobertura en los idiomas locales para identificar activamente el discurso de odio o las llamadas a la violencia. También recopiló una pequeña cantidad de informes de usuarios para ayudarlo a identificar contenido problemático, que atribuyó a la alfabetización digital, sus interfaces de informes eran confusas para los usuarios etíopes y la falta de soporte en el idioma local.

En junio de 2020, los empleados que revisaron las "señales" de la plataforma (los datos recopilados de usuarios y socios que utiliza para comprender el contenido problemático) dijeron que encontraron "brechas significativas" en los países con mayor riesgo, especialmente en Myanmar y Etiopía. , "mostrando que nuestras señales actuales pueden ser inadecuadas". Un informe de este otoño encontró que incluso entre los países en riesgo de "nivel 1", Etiopía era un caso atípico, con la "tasa de finalización más baja" para los informes de los usuarios.

Los documentos contienen varias referencias a cuán débiles son las señales de Facebook en los "ARC", países en riesgo.

Consciente de su escasa cobertura en Etiopía, Facebook propuso utilizar un enfoque diferente para abordar su problema: la moderación basada en la red. La compañía comenzó a invertir seriamente en este enfoque después de las elecciones presidenciales de EE. UU. de 2016, en respuesta a las acusaciones de interferencia rusa en el uso de su plataforma, dijo Evelyn Douek, profesora de la Facultad de Derecho de Harvard y experta en moderación de redes sociales, a Rest of World . En lugar de usar palabras o frases específicas para identificar directamente el discurso de odio o la información errónea, la moderación basada en la red se basa en identificar patrones de comportamiento que son consistentes con actividades maliciosas.

“Puedes entender por qué podrían hacerlo en países donde no tienen la capacidad del idioma, porque no se basa en comprender el contenido de las publicaciones individuales”, dijo Douek.

Sin embargo, Douek dijo que esta es "una forma especialmente opaca de moderación de contenido" y sobre la que la compañía ha publicado pocos detalles. Esta forma de moderación se basa en la investigación y los datos propios de la plataforma, que rara vez comparte con investigadores externos, y en sus propios modelos.

Los documentos publicados como parte de los Documentos de Facebook muestran que este enfoque aún es experimental y que no está claro si sus modelos funcionan en el contexto del discurso de odio, incluso en los EE. UU., donde tiene su sede y donde tiene el mayor volumen. de datos. “Las redes que rodean el odio organizado son otro claro ejemplo de redes dañinas que nuestras políticas y procedimientos actuales no pueden manejar”, un documento interno, que analiza las redes que comparten y promueven cierto contenido, incluido el contenido de supremacistas blancos en los EE. UU., lee Otros documentos se refieren a la complejidad de mapear los efectos de la red y hasta dónde tiene que llegar la empresa para comprenderlos. Aun así, el personal parece dispuesto a probar estos modelos en Etiopía y Myanmar, “donde nuestro clasificador y las señales de idioma son más débiles, y donde los modelos basados en redes pueden ayudar más”.

Un portavoz de Meta, el holding recientemente renombrado que posee Facebook, dijo en un comunicado: "Hasta ahora, no hemos utilizado este nuevo protocolo para interrumpir las redes en Etiopía".

Douek se hizo eco de otros investigadores, diciendo que incluso si la moderación basada en la red hace lo que se supone que debe hacer, es muy poco probable que sea suficiente por sí sola. “No se puede ingresar a un mercado sin la comprensión del idioma o la comprensión contextual o la experiencia política y esperar que este tipo de moderación sea suficiente o evite el daño”, dijo. “Simplemente no es adecuado”.

En un documento filtrado, el personal de Facebook dijo que una vez que la compañía identifica un país vulnerable, ya sea debido a un aumento en el discurso problemático denunciado o debido a un conflicto activo allí, puede llevar hasta un año implementar la aplicación.

La realidad puede ser más larga. La empresa reconoció sus problemas en Etiopía ya en 2019, pero en mayo de 2021, en una conversación sobre cómo medir la prevalencia del discurso de odio en el período previo a las elecciones en Etiopía, un empleado escribió: “No tenemos cobertura para Etiopía. debido a la falta de capacidad de revisión humana allí”.

Los analistas dijeron que la compañía claramente no estaba lista para el último aumento de odio y llamadas a la violencia. Las acusaciones de “traición” contra la etnia tigrayana se han convertido en algo habitual en los últimos meses. En agosto, el [comentarista] (https://www.facebook.com/fanabroadcasting/posts/4282708211819885) de los medios estatales etíopes, Muktar Ousman, que tiene más de 210.000 seguidores en Facebook, afirmó exactamente esto; dos meses después, dos profesores universitarios de etnia tigrayan fueron asesinados, hechos que Muktar celebró en publicaciones en Facebook y Twitter, donde tiene 168.000 seguidores.

La violencia se ha extendido más allá de las comunidades de Tigrayan. Otra minoría étnica, los Qemant, ha sido atacada por las fuerzas gubernamentales y las milicias aliadas. Miles de civiles Qemant han huido de sus hogares por la seguridad del vecino Sudán este año.

Más tarde en septiembre, una publicación de Facebook alegó, sin pruebas, que terroristas de una aldea de Qemant secuestraron un autobús, un supuesto incidente en el que murieron dos personas. La publicación generó cientos de reacciones. Al día siguiente, el pueblo fue [saqueado e incendiado](https://www.aljazeera.com/news/2021/10/6/finish-us-off-ethiopia-qemant-say-under-fire-in- campaña armada), ataque que duró varios días.

Entre finales de octubre y principios de noviembre, los combatientes de Tigrayan lograron sus logros más importantes de la guerra, capturando las ciudades de Dessie y Kombolcha, a unos 400 kilómetros de la capital de Etiopía, Addis Abeba. La pérdida de dos ciudades estratégicas ubicadas en las carreteras que conectan el país con el vecino Yibuti provocó otra escalada en la retórica violenta y sectaria en Facebook. Las cuentas de Facebook afiliadas al gobierno etíope acusaron a los residentes locales de Tigrayan de las dos ciudades de actuar como espías de los rebeldes.

“Si bien el trabajo de seguridad en Etiopía ha estado ocurriendo durante mucho tiempo, sabemos que los riesgos sobre el terreno en este momento son mayores”, dijo Mercy Ndegwa, directora de políticas públicas para el Este y el Cuerno de África en Meta, en un comunicado enviado a Resto del mundo. “Nosotros… estamos listos para tomar medidas adicionales para satisfacer las demandas de esta situación actual de derechos humanos”.

Facebook dijo que recientemente designó a Etiopía como un “lugar temporal de alto riesgo” y prometió eliminar las publicaciones que promuevan la violencia y la desinformación. Dijo que había agregado al Ejército de Liberación de Oromo, un grupo rebelde armado, a una lista de entidades en la lista negra.

En octubre, el investigador Gebru se dirigió a Twitter para expresar su alarma por la diatriba de Assefa y lo informó a Facebook. Pasaron casi 24 horas antes de que se retirara la publicación. No está claro por qué motivos se eliminó, y Gebru dijo que originalmente le dijeron que la publicación no violaba los estándares de la comunidad del sitio. El contenido se compartió ampliamente y todavía se puede encontrar, palabra por palabra, en las páginas de otros partidarios del gobierno.

A principios de noviembre, Facebook eliminó una publicación del primer ministro Abiy Ahmed, en la que llamaba a los ciudadanos a levantarse y “enterrar” a los rebeldes, por violar las reglas de Facebook sobre incitar a la violencia. Fue una intervención importante, dijeron los analistas, pero un día después de que se eliminó la publicación de Abiy, el alcalde de Addis Abeba, Adanech Abiebie, [entró en Facebook] (https://www.facebook.com/OfficialAdanechAbiebie/posts/404214541247386) para aplaudir a los voluntarios. realizando búsquedas de simpatizantes rebeldes en toda la ciudad y agregó: “¡Sin ninguna duda, la junta [un término usado para referirse a los rebeldes de Tigrayan] será enterrada dondequiera que deambule!”. Esa publicación aún no se ha eliminado de la plataforma.

“Me parece que lo que Facebook está haciendo es una palabrería por sus críticas explosivas en todos los rincones”, dijo Ayalew, de la Universidad de Monash.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd