Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2395

Incidents associés

Incident 4193 Rapports
Facebook's Automated Moderation Allowed Ads Threatening Election Workers to be Posted

Loading...
« Nous allons tous vous tuer » : Menaces de mort contre des agents électoraux américains approuvées sur Facebook
globalwitness.org · 2022

Une enquête menée par Global Witness et l'équipe NYU Cybersecurity for Democracy (C4D) a examiné la capacité de Facebook, TikTok et YouTube à détecter et à supprimer les menaces de mort contre les travailleurs électoraux à l'approche des élections de mi-mandat aux États-Unis.

L'enquête a révélé des résultats très contrastés pour les géants des médias sociaux : YouTube et TikTok ont suspendu nos comptes pour violation de leurs politiques, tandis que Facebook a accepté 15 des 20 publicités contenant des menaces de mort que nous leur avons soumises pour publication.

Notre enquête

Nous avons testé la capacité de Facebook de Meta, YouTube de Google et TikTok à appliquer leurs propres politiques sur les contenus préjudiciables. Pour ce faire, nous avons identifié 10 des pires exemples de menaces de mort proférées contre des travailleurs électoraux aux États-Unis, puis les avons soumises aux trois plateformes sous forme de publicités et enregistré si les plateformes les ont acceptées pour publication ou non.

Toutes les menaces de mort étaient de véritables exemples de menaces antérieures contre des travailleurs électoraux qui avaient été rapportées dans les médias. Ils comprenaient des déclarations selon lesquelles des personnes seraient tuées, pendues ou exécutées et que des enfants seraient agressés.

Nous avons supprimé les grossièretés des menaces de mort et corrigé les erreurs grammaticales, comme dans une précédente enquête, Facebook avait initialement rejeté les publicités contenant des discours de haine pour ces raisons, puis les avait acceptées pour publication une fois que nous les avions modifiées.

Nous avons soumis les menaces de mort sous forme de publicités, car cela nous permet de les programmer à l'avenir et, surtout, de les supprimer avant qu'elles ne soient mises en ligne, tout en étant examinées par les plateformes et en cours de modération de contenu.

Les menaces de mort que nous avons utilisées comme sources étaient toutes à l'origine en anglais ; nous les avons soumis aux plateformes en anglais et en espagnol. Les publicités consistaient en une image d'un travailleur électoral américain avec la menace de mort écrite en texte clairement lisible sur le dessus. Toutes les menaces de mort étaient d'une clarté effrayante dans leur langue; aucun n'était codé ou difficile à interpréter. Toutes les publicités violent les politiques publicitaires de Meta, TikTok et Google.

Nous avons soumis les annonces le jour ou la veille des élections américaines de mi-mandat de 2022.

Nos protocoles expérimentaux ont été examinés et jugés ne pas être des recherches sur des sujets humains par le comité d'examen institutionnel de l'Université de New York, qui examine l'éthique des expériences impliquant des sujets de recherche humains.

Nos découvertes

Après avoir soumis les publicités contenant des menaces de mort, TikTok et YouTube ont suspendu nos comptes pour violation de leurs politiques.

Facebook, cependant, s'est comporté très différemment. La plateforme a approuvé neuf des dix menaces de mort en anglais pour publication et six des dix menaces de mort en espagnol. Notre compte n'a pas été fermé malgré le fait qu'une poignée d'annonces aient été identifiées comme enfreignant leurs politiques.

Global Witness a contacté le propriétaire de Facebook, Meta, pour commenter ces conclusions et un porte-parole a répondu : « Il s'agit d'un petit échantillon de publicités qui ne sont pas représentatives de ce que les gens voient sur nos plateformes. Le contenu qui incite à la violence contre les travailleurs électoraux ou toute autre personne n'a pas sa place sur nos applications et des rapports récents ont clairement montré que la capacité de Meta à traiter ces problèmes dépasse effectivement celle des autres plateformes. Nous restons déterminés à continuer d'améliorer nos systèmes.

Nous avons demandé à Meta des preuves à l'appui de l'affirmation selon laquelle la plateforme est plus efficace que les autres plateformes pour lutter contre l'incitation à la violence. Meta a fourni des citations d'experts en technologie publiées dans les médias qui notent que Meta a plus de ressources consacrées que d'autres plates-formes et qu'il réussit mieux à la modération que certaines plates-formes alt right.

Bien que ces affirmations puissent être factuelles, elles ne constituent pas la preuve que Meta est meilleur pour détecter l'incitation à la violence que d'autres plateformes grand public. De plus, il ne devrait y avoir aucune tolérance pour un échec avant une élection majeure, lorsque les tensions et le potentiel de préjudice sont élevés.

Nous avons mené des enquêtes similaires sur la capacité des plateformes à détecter les contenus préjudiciables au Brésil et aux États-Unis. Dans les deux cas, nous avons examiné la désinformation électorale flagrante.

Au Brésil, nous avons constaté que les deux Facebook et [YouTube](https:/ /www.globalwitness.org/en/press-releases/after-repeated-warnings-youtube-and-facebook-continue-approve-blatant-disinformation-their-platforms-ahead-tense-brazilian-presidential-run/) a accepté tous de la désinformation électorale que nous leur avons soumise (et que Facebook a continué à accepter certaines des publicités lorsque nous les avons soumises une deuxième fois). Nous n'avons pas testé TikTok.

Aux États-Unis, nous [ trouvé] (https://cybersecurityfordemocracy.org/tiktok-and-facebook-fail-to-detect-election-disinformation) que TikTok a accepté toute la désinformation électorale que nous avons soumise à la plateforme, Facebook a accepté 20 à 50 % (selon le jour et la langue) et, comme nous l'avons constaté ici, YouTube a suspendu notre compte.

Ce qui doit changer

Les plates-formes doivent traiter tous les utilisateurs de la même manière, où qu'ils se trouvent dans le monde. Nous sommes encouragés de voir que YouTube a réussi à détecter la désinformation électorale et les menaces de mort à l'encontre des agents électoraux aux États-Unis, mais nous sommes découragés de voir qu'ils n'a pas réussi à détecter la désinformation électorale au Brésil.

Les plates-formes doivent démontrer qu'elles peuvent appliquer leurs propres politiques. En particulier, les antécédents de Facebook en matière de détection et de suppression des pires types de contenus dangereux sont terriblement mauvais : leurs politiques peuvent sembler raisonnables sur le papier, mais elles n'ont de sens que s'ils sont appliqués.

Le fait que YouTube et TikTok aient réussi à détecter les menaces de mort et à suspendre notre compte alors que Facebook a autorisé la publication de la majorité des publicités montre que ce que nous demandons est techniquement possible.

Alors que l'UE prend les devants à l'échelle mondiale pour réglementer les entreprises Big Tech et imposer une surveillance significative, les plateformes devraient également agir de leur plein gré pour protéger pleinement et équitablement leurs utilisateurs.

Nous appelons Meta à :

  • Augmenter de toute urgence les capacités de modération de contenu et les systèmes d'intégrité déployés pour atténuer les risques liés aux élections.
  • Ressourcer correctement la modération de contenu dans tous les pays dans lesquels ils opèrent à travers le monde, notamment en payant aux modérateurs de contenu un salaire équitable, en leur permettant de se syndiquer et en fournissant un soutien psychologique.
  • Évaluer, atténuer et publier régulièrement les risques que leurs services ont un impact sur les droits humains des personnes et d'autres préjudices au niveau de la société dans tous les pays où ils opèrent.
  • Publier des informations sur les mesures qu'ils ont prises dans chaque pays et pour chaque langue pour assurer la sécurité des élections.
  • Incluez tous les détails de toutes les publicités (y compris le public cible prévu, le public réel, les dépenses publicitaires et l'acheteur publicitaire) dans sa bibliothèque de publicités.
  • Autoriser les audits tiers indépendants vérifiés afin qu'ils puissent être tenus responsables de ce qu'ils disent faire.
  • Publier leur évaluation des risques pré-électoraux pour les États-Unis.
Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd