Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2965

Incidents associés

Incident 4718 Rapports
Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

Loading...
Son fils poursuit Meta pour le meurtre de son père en Éthiopie
bbc.com · 2022

L'algorithme de Facebook a contribué à alimenter la propagation virale de la haine et de la violence pendant la guerre civile en Éthiopie, selon une affaire judiciaire.

Abrham Meareg, le fils d'un universitaire éthiopien abattu après avoir été attaqué dans des publications sur Facebook, fait partie de ceux qui portent plainte contre Meta.

Ils veulent un fonds de 2 milliards de dollars (1,6 milliard de livres sterling) pour les victimes de haine sur Facebook et des modifications de l'algorithme de la plateforme.

Meta a déclaré avoir investi massivement dans la modération et la technologie pour éliminer la haine.

Un représentant a déclaré que les discours de haine et l'incitation à la violence étaient contraires aux règles de la plateforme.

"Notre travail de sécurité et d'intégrité en Éthiopie est guidé par les commentaires des organisations locales de la société civile et des institutions internationales", a déclaré le représentant.

Conditions proches de la famine

L'affaire, déposée devant la Haute Cour du Kenya, est soutenue par le groupe de campagne Foxglove.

Meta possède un centre de modération de contenu à Nairobi, la capitale kenyane.

Des centaines de milliers de personnes sont mortes dans le conflit entre le gouvernement éthiopien et les forces de la région du nord du Tigré, tandis que 400 000 autres vivent dans des conditions proches de la famine.

Le mois dernier, un accord de paix surprise a été conclu - mais récemment, il y a eu une recrudescence des meurtres à motivation ethnique entre les communautés de langue amhara et oromo.

L'année dernière, le père de M. Meareg est devenu l'une des victimes de la violence dans le pays.

Le 3 novembre 2021, le professeur Meareg Amare Abrha a été suivi chez lui depuis son université par des hommes armés à moto et abattu à bout portant alors qu'il tentait d'entrer dans la maison familiale.

Les menaces de ses agresseurs ont empêché des témoins de venir à son aide alors qu'il saignait, dit son fils. Il est mort allongé sur le sol sept heures plus tard.

Avant l'attaque, des publications sur Facebook ont calomnié et révélé des informations d'identification à son sujet, dit son fils.

Malgré des plaintes répétées à l'aide de l'outil de signalement de Facebook, la plateforme "a laissé ces messages jusqu'à ce qu'il soit bien trop tard".

L'un a été enlevé après le meurtre de son père.

Un autre, que la plateforme s'était engagée à supprimer, est resté en ligne le 8 décembre 2022.

"Très insuffisant"

"Si Facebook venait d'arrêter la propagation de la haine et de modérer correctement les publications, mon père serait toujours en vie", a déclaré M. Meareg.

Il voulait s'assurer qu'aucune famille ne souffrait comme la sienne, a-t-il dit, et "des excuses personnelles" de Meta.

Dans une déclaration sous serment déposée auprès du tribunal, M. Meareg allègue que l'algorithme de Facebook promeut le contenu "haineux et incitant" car il est susceptible d'attirer davantage d'interactions de la part des utilisateurs.

Il affirme également que la modération du contenu de Facebook en Afrique est "terriblement inadéquate", avec trop peu de modérateurs qui s'occupent des publications dans les langues clés amharique, oromo et tigrinya.

Meta - qui possède Facebook - a déclaré à BBC News : "Nous employons du personnel possédant des connaissances et une expertise locales et continuons à développer nos capacités pour détecter les contenus en infraction dans les langues les plus parlées du pays, notamment l'amharique, l'oromo, le somali et le tigrinya".

Il maintient que l'Éthiopie est une priorité élevée - bien que moins de 10 % de la population utilise Facebook - et dit les étapes il a fallu inclure :

    • réduire la viralité des publications
    • expansion des politiques de violence et d'incitation
    • améliorer l'application

Analyse par Peter Mwai, BBC Reality Check, Nairobi

Il s'agit d'un développement significatif, une tentative de prendre légalement à partie une entreprise de médias sociaux pour ses actions pendant le conflit en Éthiopie.

Les critiques disent que Meta et d'autres sociétés de médias sociaux font trop peu pour empêcher le partage et la diffusion de la désinformation et du contenu faisant la promotion de la haine et de l'incitation contre divers groupes ethniques. Et dans certains cas, la suppression du contenu prend trop de temps, principalement après que les gens l'ont signalé.

D'autres affirment que l'entreprise a été injuste dans sa répression des contenus haineux, ciblant de manière disproportionnée les publications écrites dans certaines langues.

Meta a toujours insisté sur le fait qu'il fait beaucoup et a fortement investi dans la capacité de capturer les contenus haineux et incendiaires dans les langues les plus parlées dans le pays.

Il a des modérateurs de contenu connaissant les principales langues locales, mais s'appuie également sur l'intelligence artificielle et des partenaires locaux pour signaler le contenu. Et combien de modérateurs travaillent avec Meta en se concentrant sur l'Éthiopie n'a jamais été clair.

Mais ce n'est pas la première fois que Facebook est accusé de faire trop peu pour arrêter la diffusion de contenus faisant la promotion de la haine et de la violence ethniques en Éthiopie.

En 2021, la lanceuse d'alerte Frances Haugen, une ancienne employée, a déclaré au Sénat américain que l'algorithme de la plate-forme "attisait la violence ethnique... captait les sentiments extrêmes, la division" car ces publications attiraient un fort engagement, tandis que Facebook ne pouvait pas identifier de manière adéquate le contenu dangereux. , et manquait de connaissances suffisantes dans de nombreuses langues locales - dont certaines parlées en Éthiopie.

Parmi les autres plaignants dans l'affaire figurent l'Institut Katiba et Fisseha Tekle, qui affirme que les échecs de modération de Facebook ont rendu ses reportages sur les droits humains sur le conflit, pour Amnesty International, impossibles - et ont risqué la vie de sa famille.

Ils demandent au tribunal d'ordonner à Facebook de prendre des mesures pour remédier à la situation, notamment :

    • création d'un fonds de dédommagement d'environ 200 milliards de shillings kenyans (Ksh) (1,6 milliard de dollars) pour les victimes de haine et de violence incitées sur Facebook et de 50 milliards de Ksh supplémentaires pour des préjudices similaires causés par des publications sponsorisées
    • empêcher son algorithme recommandant des "contenus incitatifs, haineux et dangereux"
    • employant suffisamment de modérateurs pour traduire le contenu local, garantissant l'équité entre la modération à Nairobi et celle des utilisateurs américains
Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd