Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2669

Incidentes Asociados

Incidente 4718 Reportes
Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

Loading...
Facebook sabía que estaba siendo utilizado para incitar a la violencia en Etiopía. Hizo poco para detener la propagación, según muestran los documentos.
cnn.com · 2021

Los empleados de Facebook hicieron sonar repetidamente la alarma sobre el fracaso de la empresa para frenar la difusión de publicaciones que incitan a la violencia en países “en riesgo” como Etiopía, donde una [guerra civil](https://edition.cnn.com/2021/10/22/ africa/ethiopia-airstrikes-tigray-friday-intl/index.html) se ha desatado durante el último año, según muestran documentos internos vistos por CNN. El gigante de las redes sociales clasifica a Etiopía en su nivel de mayor prioridad para los países en riesgo de conflicto, pero los documentos revelan que los esfuerzos de moderación de Facebook no fueron rival para la avalancha de contenido incendiario en su plataforma. Los documentos se encuentran entre docenas de divulgaciones realizadas a la Comisión de Bolsa y Valores de EE. UU. (SEC) y proporcionadas al Congreso en forma redactada por [la denunciante de Facebook Frances Haugen] (https://edition.cnn.com/2021/10/04/tech /facebook-whistleblower-frances-haugen-what-we-know/index.html) asesor legal. Un consorcio de 17 organizaciones de noticias de EE. UU., incluida CNN, revisó las versiones redactadas recibidas por el Congreso. Muestran a los empleados advirtiendo a los gerentes sobre cómo Facebook estaba siendo utilizado por "actores problemáticos", incluidos estados y organizaciones extranjeras, para difundir discursos de odio y contenido que incitaba a la violencia en Etiopía y otros países en desarrollo, donde su base de usuarios es grande y está creciendo. Facebook estima que tiene 1.840 millones de usuarios activos diarios, el 72 % de los cuales se encuentran fuera de América del Norte y Europa, según su presentación anual ante la SEC para 2020. Los documentos también indican que la empresa, en muchos casos, no ha logrado ampliar adecuadamente el personal o agregue recursos en el idioma local para proteger a las personas en estos lugares. Facebook utilizado por las milicias 'para sembrar llamados a la violencia' --------------------------------------- --------------- Los informes que obtuvo CNN brindan más información sobre la escala del problema en Etiopía, cuyos elementos fueron informados por [The Wall Street Journal] (https://www .wsj.com/articles/facebook-drug-cartels-human-traffickers-response-is-weak-documents-11631812953) el mes pasado. La publicación de CNN de estas advertencias desde dentro de Facebook se produce siete meses después de que un equipo de Facebook compartiera inicialmente un informe interno titulado “Daño social coordinado”. El informe, distribuido en marzo, decía que los grupos armados en Etiopía estaban usando la plataforma para incitar a la violencia contra las minorías étnicas en el “contexto de la guerra civil”. En ese momento, un conflicto en la región norteña de Tigray del país entre su antiguo partido gobernante, el Frente Popular de Liberación de Tigray (TPLF), y el gobierno etíope había estado retumbando durante cinco meses. Los apagones intermitentes de Internet y las restricciones a los medios habían oscurecido gran parte de la lucha. Etiopía es una nación étnica y religiosamente diversa de aproximadamente 110 millones de personas que hablan decenas de idiomas. Sus dos grupos étnicos más grandes, Oromo y Amhara, representan más del 60% de la población. Los Tigrayans, el tercero más grande, son alrededor del 7%. Uno de los grupos señalados en el informe de marzo fue el “Fano”, un grupo de milicias de la etnia amhara con reputación de brutalidad que se ha visto envuelto en la guerra en Tigray, a veces luchando junto a las fuerzas del gobierno etíope. Facebook dijo que había observado un grupo de cuentas afiliadas al grupo de milicianos, incluidas algunas con sede en Sudán, que usaban su plataforma para “sembrar llamados a la violencia”, promover conflictos armados, reclutar y recaudar fondos. Desde que comenzó la guerra en noviembre pasado, la milicia Fano ha estado vinculada por desplazados de Tigrayan a abusos contra los derechos humanos, incluidos el asesinato de civiles, saqueos y violaciones, según la oficina de derechos humanos de las Naciones Unidas, [Amnistía Internacional] (https://www.amnesty.org/en/documents/afr25/4569/2021 /es/) y otros grupos de derechos humanos. Aunque el equipo de Facebook dijo que había recomendado que se eliminara la red afiliada a Fano, sugirió que otros malos actores que promovían la violencia en su plataforma se estaban escapando simultáneamente. En un titular en negrita, el equipo advirtió: “Las estrategias de mitigación actuales no son suficientes”. Los documentos de Facebook también detallan la eliminación por parte de la plataforma de un grupo de cuentas vinculadas a la diáspora oromo, en su mayoría con sede en Egipto, que se dirigía a audiencias etíopes con contenido altamente incendiario, que incluía "llamadas explícitas a la violencia contra funcionarios del gobierno y otros grupos étnicos". Una publicación incitante destacada en un informe compartió una foto de lo que parece ser un cóctel Molotov que se enciende y la declaración: "Quema todo el país". La denunciante, Haugen, dijo que una de sus principales motivaciones para recopilar los documentos internos fue sacar a la luz "lo mal que Facebook está manejando lugares como Etiopía", donde sugirió que la clasificación basada en el compromiso fomentaba la violencia étnica. “Realmente temo que una gran cantidad de personas muera en los próximos cinco a diez años, o veinte años, debido a las opciones y la falta de fondos” de Facebook, dijo Haugen. En comentarios hechos al consorcio, Haugen enfatizó la gran diferencia entre los sistemas de integridad y seguridad implementados por Facebook en los Estados Unidos y el resto del mundo, y agregó que la compañía no estaba controlando adecuadamente su plataforma en la mayoría de los idiomas distintos del inglés. “La versión sin procesar [de Facebook] que vaga libremente en la mayor parte del mundo no tiene ninguna de las cosas que la hacen apetecible en los Estados Unidos, y realmente creo que hay muchas vidas en juego: eso Myanmar y Etiopía son como el capítulo inicial”, dijo. Un portavoz de Facebook le dijo a CNN que la compañía se ha “enfocado activamente en Etiopía”. “Durante los últimos dos años, hemos invertido activamente para agregar más personal con experiencia local, recursos operativos y capacidad de revisión adicional para expandir la cantidad de idiomas locales que admitimos para incluir amárico, oromo, somalí y tigrinya. Hemos trabajado para mejorar nuestra detección proactiva para que podamos eliminar más contenido dañino a escala. También nos hemos asociado ampliamente con expertos internacionales y locales para comprender mejor y mitigar los mayores riesgos en la plataforma”, dijo el portavoz. Las estrategias de mitigación actuales no son suficientes -------------------------------------------- Ninguna de las revelaciones de los documentos de Facebook es nueva para los activistas y grupos de derechos humanos, que han advertido durante años que el gigante de las redes sociales no ha hecho suficientes esfuerzos para proteger los derechos humanos en Etiopía, el segundo país más poblado de África. Algunos políticos y grupos de la sociedad civil dijo que si no se tomaba ninguna medida, la plataforma corría el riesgo de repetir los mismos errores que cometió en Myanmar, ahora un estudio de caso en el mortal impacto que puede tener el discurso de odio compartido en Facebook. En 2018, la ONU criticó el papel de Facebook en la crisis de Myanmar, que según el organismo global, [“tenía las características del genocidio”](https://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx? NewsID=22793&LangID=E ) Al promover la violencia y el odio contra la población minoritaria rohingya, la ONU dijo que Facebook se había [“convertido en una bestia”](https://edition.cnn.com/2018/04/06/asia/ myanmar-facebook-social-media-genocide-intl/index.html) La compañía de redes sociales reconoció más tarde que no hizo lo suficiente para evitar que su plataforma se usara para alimentar el derramamiento de sangre, y [el director ejecutivo Mark Zuckerberg] (https:/ /edition.cnn.com/2018/11/06/tech/facebook-myanmar-report/index.html) escribió una carta abierta disculpándose con los activistas y prometiendo aumentar sus esfuerzos de moderación. Al igual que en Myanmar, el aumento de la popularidad de Facebook en Etiopía se produjo en un momento de rápido cambio político y social, que ayudó a impulsar el crecimiento de la plataforma. En 2018, Abiy Ahmed fue nombrado Primer Ministro y lanzó una serie de reformas, incluida la liberación de miles de presos políticos y el levantamiento de las restricciones a la prensa. Pero cuando los etíopes comenzaron a usar Facebook para participar en debates públicos, los observadores vieron que una variedad de actores, incluidos políticos, abusaban de la plataforma para incitar a la discriminación y la violencia. El ex relator especial de la ONU para la libertad de expresión [David Kaye] (https://undocs.org/pdf?symbol=en/A/HRC/44/49/Add.1) le dijo a CNN que este problema surgió repetidamente en conversaciones con grupos de la sociedad civil durante su viaje a Etiopía en diciembre de 2019: “Estaba en el radar de todos que podría haber ser un derrame real de la plataforma al daño fuera de línea”. “Dada la experiencia en Myanmar, Facebook realmente incumbía a Facebook hacer una evaluación del impacto en los derechos humanos y evaluar lo que tenían que hacer para que Facebook en Etiopía no se convirtiera en un lugar para la incitación a la violencia”, dijo Kaye, y agregó que él no sabía cómo era esa evaluación o si se había hecho. En junio de 2020, un empleado de Facebook publicó un informe para un grupo interno con alrededor de 1500 miembros llamado "Países en riesgo FYI" que resume una auditoría en curso sobre qué tan bien su inteligencia artificial y otras señales, como verificadores de hechos de terceros, funcionaron al máximo en -países de riesgo donde opera la plataforma. “Encontramos brechas significativas en nuestra cobertura (especialmente en Myanmar y Etiopía), lo que demuestra que nuestras señales actuales pueden ser inadecuadas”, escribió el empleado, compartiendo una hoja de cálculo con una lista de países en riesgo y los idiomas admitidos por la plataforma en cada uno. . La hoja de cálculo mostró que Facebook no había logrado construir sistemas automatizados, llamados clasificadores, para detectar información errónea o discurso de odio en oromo o amárico, dos de los idiomas más hablados en Etiopía. A pesar de que el conflicto en Tigray se intensificó, Haugen dijo que solo había encontrado evidencia de que Facebook había asignado “aunque sea un leve apoyo lingüístico” en dos de los muchos idiomas nativos del país. Facebook dice que no cree que deban ser los “árbitros de la verdad” por lo que la empresa depende de organizaciones de verificación de hechos de terceros para identificar, revisar y calificar información errónea potencial en sus plataformas. Facebook se ha asociado con dos organizaciones de este tipo en Etiopía: AFP Fact Check y PesaCheck, una empresa con sede en África Oriental iniciativa sin fines de lucro dirigida por Code for Africa. PesaCheck tiene cinco verificadores etíopes de tiempo completo que trabajan en cuatro idiomas (oromo, amárico, tigrinya e inglés), pero dice que recientemente tuvo que trasladar a un miembro del personal de Etiopía debido a la intimidación. AFP Fact Check emplea a un verificador de datos en Etiopía, Amanuel Neguede, que revisa el contenido en amárico e inglés. Todos los días, Neguede le dijo a CNN que revisa miles de publicaciones en una herramienta interna de Facebook, que muestra contenido marcado como falso o engañoso a través de una combinación de IA y moderadores humanos. Originalmente, Neguede dijo que AFP solo tenía acceso a contenido en inglés en Etiopía a través de la herramienta, que mostraría solo contenido limitado cada día. La herramienta comenzó a ofrecer contenido en idioma amárico de AFP en mayo, y ahora la cantidad de reclamos que dice que ve a diario ha aumentado drásticamente. La herramienta no siempre identifica con precisión la información errónea y la desinformación, pero Neguede dice que ayuda con su trabajo. “He visto muchos discursos de odio, que definitivamente alimentan la violencia étnica en Etiopía”, dijo Neguede. “Cada vez que hay una gran ofensiva, por ejemplo, que está ocurriendo en el norte, podemos ver muchas imágenes de conflictos que han ocurrido en diferentes países en un contexto engañoso. Diría que la mayoría de las veces veremos publicaciones, especialmente publicaciones que se comparten ampliamente, después de eventos de noticias reales”. Pero investigadores como Berhan Taye dicen que Facebook en Etiopía necesita desesperadamente más moderadores de contenido, señalando cómo se usó la plataforma para avivar una ola de violencia mortal después del asesinato del músico oromo [Hachalu Hundessa] (https://edition.cnn) .com/2020/07/02/africa/ethiopian-singer-buried-protests-intl/index.html) el año pasado. Taye, entonces gerente de políticas en el grupo de derechos digitales Access Now, recuerda haber visto transmisiones en vivo de linchamientos y publicaciones que pedían el exterminio selectivo de ciertos grupos étnicos, luego de la muerte de Hundessa. Ella escribió una carta abierta llamando a Facebook a tomar medidas para proteger a los etíopes. Ella dice que poco ha cambiado desde entonces. Por esa razón, Taye, ahora analista independiente con sede en Nairobi, trabaja con voluntarios de base para cotejar la información errónea y el discurso de odio que detectan en la plataforma en hojas de cálculo de Excel, que luego envían a Facebook para su eliminación. Pero ella dice que gran parte de lo que marcan, incluidas las publicaciones que piden el exterminio de ciertos grupos étnicos, no se elimina y, en ocasiones, la empresa ha respondido a los activistas que les piden que traduzcan las publicaciones. Facebook dice que ha mejorado sus herramientas de informes para las personas en Etiopía para que les resulte más rápido y fácil denunciar contenido que creen que viola los estándares de su comunidad, que ahora están disponibles en amárico y se lanzaron recientemente en oromo. Dice que también ha establecido canales de información para grupos internacionales y locales de derechos humanos y organizaciones de la sociedad civil para señalar contenido potencialmente dañino en Etiopía. La moderación de contenido es un trabajo extremadamente peligroso en Etiopía, dice Taye, y agrega que ha sido acusada personalmente de ponerse del lado de una persona o grupo porque se eliminó una publicación. La tarea también es mentalmente agotadora; los voluntarios pasan horas revisando contenido gráfico, a menudo haciéndolo junto con trabajos de tiempo completo y criando a sus hijos. Taye dijo que era inaceptable que a las personas pobres se les haya dejado en la práctica el "trabajo sucio" de una de las empresas más ricas del mundo. Facebook no revelará exactamente cuántos hablantes de idiomas locales están evaluando contenido en Etiopía que ha sido señalado como una posible violación de sus estándares, o cuánto ha invertido en recursos para vigilar mejor su plataforma en el país. Un portavoz de Facebook dijo que la compañía había invertido “$13 mil millones y tiene 40 000 personas trabajando en la seguridad de nuestra plataforma, incluidas 15 000 personas que revisan contenido en más de 70 idiomas que trabajan en más de 20 ubicaciones en todo el mundo para apoyar a nuestra comunidad. . Nuestro programa de verificación de hechos de terceros incluye más de 80 socios que revisan contenido en más de 60 idiomas, y 70 de esos verificadores de hechos están fuera de los EE. UU.". “Nuestro historial muestra que tomamos medidas enérgicas contra el abuso fuera de los EE. UU. con la misma intensidad que aplicamos en los EE. UU.”, agregó el portavoz. Una guerra en las redes sociales --------------------- Desde que estalló la guerra en Tigray, los partidarios tanto del gobierno como del TPLF han librado una lucha paralela en las redes sociales, creando un campo de batalla virtual de odio étnico y religioso tóxico. Pero es difícil determinar cuándo las atrocidades que se desarrollan sobre el terreno son el resultado directo de contenido odioso compartido en línea. La jefa de la Agencia de Estados Unidos para el Desarrollo Internacional Samantha Power expresó su preocupación en agosto por la "retórica inflamada" y "deshumanizante" que dijo que los líderes de Etiopía estaban invocando en medio del conflicto en Tigray, cuyas fuerzas fueron descritas por el primer ministro Abiy Ahmed como "mala hierba" y "cáncer" en una publicación compartida en Facebook . Power enfatizó que el “discurso cada vez más virulento” utilizado por el primer ministro y otros funcionarios, también compartido en las redes sociales, “a menudo acompaña a las atrocidades por motivos étnicos”. El lenguaje de Abiy también fue condenado por la asesora especial de la ONU para la prevención del genocidio [Alice Wairimu Nderitu](https://reliefweb.int/report/ethiopia/statement-alice-wairimu-nderitu-united-nations-special-adviser-prevention -genocidio), quien advirtió que “el discurso del odio, junto con su propagación a través de las redes sociales, es parte de una tendencia preocupante que contribuye a alimentar aún más las tensiones étnicas en el país”. Los activistas dicen que los partidarios de Abiy se han hecho eco en línea de ese lenguaje divisivo. CNN se ha comunicado con la oficina del primer ministro etíope para hacer comentarios. En junio, días antes de las elecciones nacionales de Etiopía, que Abiy ganó de forma aplastante, dijo Facebook eliminó una red de cuentas falsas dirigidas a usuarios domésticos principalmente en amárico. Facebook vinculó las cuentas a personas asociadas con la Agencia de Seguridad de Redes de Información de Etiopía (INSA), la agencia de seguridad cibernética que Abiy estableció y dirigió antes de convertirse en Primer Ministro. Una página de Facebook con un administrador afiliado a la INSA también se marcó en documentos internos de Facebook en marzo, pero no se recomendó su eliminación. A medida que el conflicto se intensifica en línea y fuera de ella, el gobierno etíope acusó a Facebook de bloquear usuarios y eliminar publicaciones que "difunden la verdadera realidad sobre Etiopía". (https://www.reuters.com/article/ctech-us-ethiopia-socialmedia-idCAKBN2FO0X3-OCATC) en agosto había comenzado a desarrollar su propia plataforma de redes sociales para competir y reemplazar a Facebook, WhatsApp y Twitter.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd