Incidents associés

Selon les réponses au questionnaire du BIRN, quelque 57 % des personnes qui ont signalé un discours de haine ont déclaré avoir été informées que la publication/le compte signalé enfreignait les règles.
En revanche, quelque 28 % ont déclaré avoir reçu une notification indiquant que le contenu qu'ils avaient signalé ne violait pas les règles, tandis que 14 % n'avaient reçu que la confirmation que leur signalement avait été déposé.
En termes de signalements de harcèlement ciblé, la moitié des personnes ont déclaré avoir reçu la confirmation que le contenu enfreignait les règles ; 16% ont été informés que le contenu ne violait pas les règles. Un tiers de ceux qui ont signalé un harcèlement ciblé n'ont reçu qu'une confirmation de la réception de leur signalement.
En ce qui concerne les menaces de violence, 40 % des personnes ont reçu la confirmation que le message/compte signalé violait les règles, tandis que 60 % n'ont reçu que la confirmation que leur plainte avait été reçue.
L'un des répondants a déclaré à BIRN qu'il avait signalé au moins sept comptes pour diffusion de contenu haineux et violent.
"Je ne m'engage pas activement sur ces rapports et je ne continue pas à les rechercher et à les rechercher. Cependant, lorsque je rencontre l'un de ces haineux, négationnistes et partisans du génocide, il me semble que c'est la bonne chose à faire, d'empêcher un tel contenu d'aller plus loin », a déclaré l'intimé, s'exprimant sous le couvert de l'anonymat. "Peut-être que l'un de tous les individus signalés s'arrête et se demande ce qui a conduit à cela et ouvre simplement des discussions, avec lui-même ou ses proches."
Bien que pour ces sept comptes, Twitter ait confirmé qu'ils enfreignaient certaines règles, six d'entre eux sont toujours disponibles en ligne.
Méthodologie BIRN BIRN a mené son questionnaire via l'outil du réseau pour impliquer les citoyens dans le reporting, développé en coopération avec le British Council. Le questionnaire anonyme avait pour objectif de collecter des informations sur le type de violations signalées, qui était la cible et le succès du signalement. Les questions étaient disponibles en anglais, macédonien, albanais et bosniaque/serbe/monténégrin. BIRN s'est concentré sur Facebook et Twitter compte tenu de leur popularité dans les Balkans et de la sensibilité du contenu partagé, qui est principalement textuel et plus difficile à évaluer par rapport aux vidéos et aux photos.
Un autre problème qui a émergé est le manque de clarté des critères lors du signalement des violations. Une connaissance de base de l'anglais est également requise.
Sanjana Hattotuwa, conseillère spéciale à la Fondation ICT4Peace, a convenu que le processus de signalement dans l'application ou sur le Web est déroutant.
"De plus, il est souvent en anglais même si le reste de l'UI/UX [User Interface/User Experience] peut être dans la langue locale. De plus, la sélection laborieuse des catégories n'est pas facile pour une victime, surtout sous la contrainte.
Facebook a déclaré à BIRN que la grande majorité des rapports sont examinés dans les 24 heures et que l'entreprise utilise les rapports communautaires, l'examen humain et l'automatisation.
Il a cependant refusé de donner des détails sur ceux qu'il emploie pour examiner le contenu ou les rapports dans les langues des Balkans, affirmant qu'"il n'est pas exact de ne donner que le nombre d'examinateurs de contenu".
"Cela seul ne reflète pas le nombre de personnes travaillant sur une révision de contenu pour un pays particulier à un moment donné", a déclaré le porte-parole.
Les réseaux sociaux suppriment souvent eux-mêmes le contenu, dans ce qu'ils appellent une "approche proactive".
Selon les données fournies par Facebook, au dernier trimestre de 2017, leur taux de détection proactive était de 23,6 %.
"Cela signifie que sur les discours de haine que nous avons supprimés, 23,6% ont été trouvés avant qu'un utilisateur ne nous le signale", a déclaré le porte-parole. "La majorité restante a été supprimée après qu'un utilisateur l'a signalé. Aujourd'hui, nous détectons de manière proactive environ 95 % du contenu incitant à la haine que nous supprimons. »
"Que le contenu soit détecté de manière proactive ou signalé par les utilisateurs, nous utilisons souvent l'IA pour agir sur les cas simples et donner la priorité aux cas les plus nuancés, où le contexte doit être pris en compte, pour nos examinateurs."
Cependant, aucune donnée n'est disponible en ce qui concerne le contenu dans une langue ou un pays spécifique.
Facebook publie un rapport trimestriel sur l'application des normes communautaires, mais, selon le porte-parole, l'entreprise ne "divulgue pas de données concernant la modération de contenu dans des pays spécifiques".
Quels que soient les outils, les résultats sont parfois très discutables.
En mai 2018, Facebook a bloqué pendant 24 heures le profil du journaliste bosniaque Dragan Bursac après avoir publié une photo d'un camp de détention pour Bosniaques en Serbie lors de l'effondrement de la Yougoslavie fédérale dans les années 1990.
Facebook a déterminé que la publication de Bursac avait violé les "normes communautaires", ont rapporté les médias locaux.
Bojan Kordalov, spécialiste des relations publiques et des nouveaux médias basé à Skopje, a déclaré que "lors de l'évaluation de l'efficacité dans ce domaine, il est important de souligner que le trafic dans l'espace Internet est très dense et augmente chaque seconde, ce qui en fait sans équivoque un domaine où chacun doit apporter sa contribution ».
"Cela signifie que les gestionnaires de médias sociaux sont indéniablement responsables du respect des normes et du respect des réglementations au sein de leurs plateformes, mais cela ne dispense pas les législateurs, les gouvernements et les institutions de leur responsabilité de s'adapter aux besoins de la nouvelle ère numérique, et cela ne donne à personne le droit de redéfinir et de restreindre la notion et les avantages que la démocratie apporte.
Manque de sensibilité linguistique
La Fondation SHARE, une ONG basée à Belgrade travaillant sur les droits numériques, a déclaré que la question était cruciale étant donné l'énorme volume de contenu circulant sur Facebook et Twitter dans toutes les langues.
"En ce qui concerne les groupes linguistiques relativement petits en nombre absolu d'utilisateurs, comme les langues de l'ex-Yougoslavie ou même des Balkans, il n'y a tout simplement aucune incitation ou pression suffisante de la part des dirigeants publics et politiques pour investir dans la modération humaine", SHARE dit BIRN.
Berthelemy d'EDRi a déclaré que les Balkans n'étaient pas un exemple isolé et que les pratiques et politiques de modération de contenu de Facebook et Twitter sont « vouées à l'échec ».
"Beaucoup de ces sociétés opèrent à grande échelle, certaines d'entre elles desservant jusqu'à un quart de la population mondiale avec un seul service", a déclaré Berthelemy à BIRN. « Il est impossible qu'une telle architecture monolithique, un processus et une politique de régulation de la parole s'adaptent et satisfassent les besoins culturels et sociaux spécifiques des individus et des groupes.
Le Parlement européen a également souligné l'importance d'une évaluation combinée.
"Les expressions de haine peuvent être véhiculées de nombreuses manières, et les mêmes mots généralement utilisés pour véhiculer de telles expressions peuvent également être utilisés à des fins différentes", selon une étude de 2020 - "L'impact des algorithmes de filtrage ou de modération de contenu en ligne" - mandaté par le Département thématique du Parlement pour les droits des citoyens et les affaires constitutionnelles.
« Par exemple, ces mots peuvent être utilisés pour condamner la violence, l'injustice ou la discrimination contre les groupes ciblés, ou simplement pour décrire leur situation sociale. Ainsi, pour identifier les contenus haineux dans les messages textuels, il faut tenter de saisir le sens de ces messages, en utilisant les ressources fournies par le traitement du langage naturel.
Hattotuwa a déclaré qu'en général, "les marchés de langue non anglaise avec des scripts non romanes (c'est-à-dire non basés sur des lettres anglaises) sont d'autant plus difficiles à concevoir des solutions d'IA/ML".
"Et dans de nombreux cas, ces marchés sont hors de vue et loin de l'esprit, à moins que la violence, les abus ou les dommages causés à la plate-forme ne soient si importants qu'ils ne fassent la une du New York Times", a déclaré Hattotuwa à BIRN.
"Les humains sont nécessaires pour les évaluations, mais comme vous le savez, il existe de graves problèmes émotionnels / SSPT liés à la surveillance des contenus violents, pour lesquels des entreprises comme Facebook ont été poursuivies (et perdues, devant payer des dommages-intérêts)."
Échec en non-anglais
Dragan Vujanovic de l'ONG Vasa prava [Vos droits] basée à Sarajevo a critiqué ce qu'il a qualifié d'"un certain niveau de tolérance à l'égard des violations qui étayent certains récits sociaux".
"Cela est particulièrement évident dans le comportement incohérent des modérateurs des médias sociaux où les comptes avec des commentaires assez anodins sont interdits ou suspendus tandis que d'autres comptes, avec des abus manifestes et un impact social négatif clair, sont tolérés."
Pour Chloe Berthelemy, essayer d'appliquer un ensemble de règles uniformes sur l'éventail très diversifié de normes, de valeurs et d'opinions sur tous les sujets disponibles qui existent dans le monde est « voué à l'échec ».
"Par exemple, là où la nudité est considérée comme sensible aux États-Unis, d'autres cultures adoptent une approche plus libérale", a-t-elle déclaré.
L'exemple du Myanmar, lorsque Facebook a effectivement bloqué une langue entière en refusant tous les messages écrits en Jinghpaw, une langue parlée par l'ethnie Kachin du Myanmar et écrite avec un alphabet romain, montre l'ampleur du problème.
"La plate-forme fonctionne très mal pour détecter les discours de haine dans des langues autres que l'anglais", a déclaré Berthelemy à BIRN.
Les techniques utilisées pour filtrer les contenus diffèrent selon les médias analysés, selon l'étude 2020 pour le Parlement européen.
"Un filtre peut fonctionner à différents niveaux de complexité, allant de la simple comparaison de contenus à une liste noire, à des techniques plus sophistiquées utilisant des techniques d'IA complexes", a-t-il déclaré.
"Dans les approches d'apprentissage automatique, le système, plutôt que d'être fourni avec une définition logique des critères à utiliser pour trouver et classer le contenu (par exemple, pour déterminer ce qui compte comme discours de haine, diffamation, etc.) est fourni avec un vaste ensemble de données, à partir desquelles il doit apprendre par lui-même les critères pour faire une telle classification ».
Les utilisateurs de Twitter et de Facebook peuvent faire appel si leurs comptes sont suspendus ou bloqués.
"Malheureusement, le processus manque de transparence, car le nombre d'appels déposés n'est pas mentionné dans le rapport de transparence, ni le nombre de comptes ou de tweets traités ou rétablis", note l'étude.
Entre janvier et octobre 2020, Facebook a restauré quelque 50 000 contenus sans appel et 613 000 après appel.
Selon le rapport Twitter Transparency, au cours des six premiers mois de 2020, 12,4 millions de comptes ont été signalés à l'entreprise, dont un peu plus de six millions pour conduite haineuse et quelque 5,1 millions pour "abus/harcèlement".
Au cours de la même période, Twitter a suspendu 925 744 comptes, dont 127 954 ont été signalés pour conduite haineuse et 72 139 pour abus/harcèlement. L'entreprise a supprimé ce contenu dans un peu plus de 1,9 million de cas : 955 212 dans la catégorie conduite haineuse et 609 253 dans la catégorie abus/harcèlement.
Toskic Cvetinovic a déclaré que les règles devaient être plus claires et mieux communiquées aux utilisateurs par des "personnes vivantes".
"Souvent, la suppression de contenu n'a pas de fonction corrective, mais équivaut à de la censure", a-t-elle déclaré.
Berthelemy a déclaré que, "parce que les plateformes de médias sociaux dominantes reproduisent les systèmes sociaux d'oppression, elles sont aussi souvent dangereuses pour de nombreux groupes en marge".
"Ils sont incapables de comprendre les comportements discriminatoires et violents en ligne, y compris certaines formes de harcèlement et de menaces violentes et, par conséquent, ne peuvent pas répondre aux besoins des victimes", a déclaré Berthelemy à BIRN.
"De plus", a-t-elle déclaré, "ces réseaux de médias sociaux sont également des sociétés de publicité. Ils s'appuient sur un contenu incendiaire pour générer des données de profilage et donc des bénéfices publicitaires. Il n'y aura pas de réponse efficace et systématique sans aborder les modèles commerciaux d'accumulation et d'échange de données personnelles.