Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2965

Incidentes Asociados

Incidente 4718 Reportes
Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

Loading...
Hijo demanda a Meta por el asesinato de su padre en Etiopía
bbc.com · 2022

El algoritmo de Facebook ayudó a impulsar la propagación viral del odio y la violencia durante la guerra civil de Etiopía, alega un caso legal.

Abrham Meareg, el hijo de un académico etíope asesinado a tiros después de ser atacado en publicaciones de Facebook, se encuentra entre los que presentan el caso contra Meta.

Quieren un fondo de $ 2 mil millones (£ 1.6 mil millones) para las víctimas del odio en Facebook y cambios en el algoritmo de la plataforma.

Meta dijo que invirtió mucho en moderación y tecnología para eliminar el odio.

Un representante dijo que el discurso de odio y la incitación a la violencia estaban en contra de las reglas de la plataforma.

"Nuestro trabajo de seguridad e integridad en Etiopía está guiado por los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales", dijo el representante.

Condiciones de hambruna

El caso, presentado ante el Tribunal Superior de Kenia, cuenta con el apoyo del grupo de campaña Foxglove.

Meta tiene un centro de moderación de contenido en la capital de Kenia, Nairobi.

Cientos de miles de personas han muerto en el conflicto entre el gobierno etíope y las fuerzas en la región norteña de Tigray, y otras 400.000 viven en condiciones de hambruna.

El mes pasado, se acordó un acuerdo de paz sorpresa, pero recientemente ha habido un aumento en los asesinatos por motivos étnicos entre las comunidades de habla amhara y oromo.

El año pasado, el padre de Meareg se convirtió en una de las víctimas de la violencia del país.

El 3 de noviembre de 2021, el profesor Meareg Amare Abrha fue seguido a su casa desde su universidad por hombres armados en motocicletas y le dispararon a quemarropa cuando intentaba entrar en la casa familiar.

Las amenazas de sus atacantes impidieron que los testigos acudieran en su ayuda mientras yacía sangrando, dice su hijo. Murió tirado en el suelo siete horas después.

Antes del ataque, las publicaciones de Facebook calumniaron y revelaron información de identificación sobre él, dice su hijo.

A pesar de las repetidas quejas sobre el uso de la herramienta de informes de Facebook, la plataforma "dejó estas publicaciones hasta que fue demasiado tarde".

Uno fue retirado después del asesinato de su padre.

Otro, que la plataforma se había comprometido a eliminar, permaneció en línea el 8 de diciembre de 2022.

'Lamentablemente inadecuado'

“Si Facebook hubiera detenido la propagación del odio y moderado las publicaciones correctamente, mi padre aún estaría vivo”, dijo Meareg.

Quería asegurarse de que ninguna familia sufriera como la suya, dijo, y "una disculpa personal" de Meta.

En una declaración jurada presentada ante el tribunal, Meareg alega que el algoritmo de Facebook promueve contenido "de odio e incitación" porque es probable que atraiga más interacción de los usuarios.

También afirma que la moderación de contenido de Facebook en África es "lamentablemente inadecuada", con muy pocos moderadores que se ocupan de las publicaciones en los idiomas clave amárico, oromo y tigrinya.

Meta, propietaria de Facebook, le dijo a BBC News: "Empleamos personal con conocimiento y experiencia local y continuamos desarrollando nuestras capacidades para detectar contenido infractor en los idiomas más hablados en el país, incluidos amárico, oromo, somalí y tigrinya".

Sostiene que Etiopía es una alta prioridad, aunque menos del 10 % de la población usa Facebook, y dice los pasos ha tomado incluyen:

    • reducir la viralidad de las publicaciones
    • ampliar las políticas de violencia e incitación
    • mejorar la aplicación

Análisis de Peter Mwai, BBC Reality Check, Nairobi

Este es un avance significativo, un intento de reprender legalmente a una empresa de redes sociales por sus acciones durante el conflicto en Etiopía.

Los críticos dicen que Meta y otras compañías de redes sociales hacen muy poco para evitar que se comparta y difunda desinformación y contenido que promueva el odio y la incitación contra varios grupos étnicos. Y en algunos casos, el contenido tarda demasiado en eliminarse, principalmente después de que las personas lo denuncian.

Otros afirman que la compañía ha sido injusta en su represión del contenido odioso, al enfocarse en publicaciones escritas en algunos idiomas de manera desproporcionada.

Meta siempre ha insistido en que hace mucho y ha invertido mucho en la capacidad de capturar contenido de odio e incendiario en los idiomas más hablados en el país.

Tiene moderadores de contenido familiarizados con los principales idiomas locales, pero también se basa en inteligencia artificial y socios locales para marcar el contenido. Y nunca ha estado claro cuántos moderadores trabajan con Meta centrándose en Etiopía.

Pero esta no es la primera vez que se acusa a Facebook de hacer muy poco para detener la difusión de contenido que promueve el odio étnico y la violencia en Etiopía.

En 2021, la denunciante Frances Haugen, exempleada, le dijo al Senado de los EE. UU. que el algoritmo de la plataforma estaba "fomentando la violencia étnica... captando los sentimientos extremos, la división" ya que esas publicaciones atraían una gran participación, mientras que Facebook no podía identificar adecuadamente el contenido peligroso. , y carecía de experiencia suficiente en muchos idiomas locales, incluidos algunos que se hablan en Etiopía.

Otros demandantes en el caso incluyen al Instituto Katiba y Fisseha Tekle, quien alega que las fallas de moderación de Facebook hicieron que su informe de derechos humanos sobre el conflicto, para Amnistía Internacional, fuera imposible, y arriesgó la vida de su familia.

Están pidiendo a la corte que ordene a Facebook que tome medidas para remediar la situación, que incluyen:

    • creación de un fondo de restitución de unos 200.000 millones de chelines kenianos (Ksh) (1.600 millones de dólares) para las víctimas del odio y la violencia incitados en Facebook y otros 50.000 millones de Ksh para daños similares causados por publicaciones patrocinadas
    • impidiendo que su algoritmo recomiende "contenido incitador, odioso y peligroso"
    • emplear suficientes moderadores para traducir el contenido local, asegurando la equidad entre la moderación en Nairobi y la de los usuarios de EE. UU.
Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd