Incidents associés

Vous voulez commercialiser des souvenirs nazis ou recruter des marcheurs pour un rassemblement d'extrême droite ? La plate-forme d'achat de publicités en libre-service de Facebook avait le bon public pour vous.
Jusqu'à cette semaine, lorsque nous avons interrogé Facebook à ce sujet, le plus grand réseau social au monde permettait aux annonceurs d'orienter leurs pitchs vers les fils d'actualité de près de 2 300 personnes qui exprimaient leur intérêt pour les sujets de « haineux des juifs », « Comment brûler les juifs » ou , "Histoire de 'pourquoi les juifs ruinent le monde.'"
Pour tester si ces catégories d'annonces étaient réelles, nous avons payé 30 $ pour cibler ces groupes avec trois "publications promues" - dans lesquelles un article ou une publication ProPublica était affiché dans leurs fils d'actualité. Facebook a approuvé les trois publicités en 15 minutes.
Après avoir contacté Facebook, il a supprimé les catégories antisémites – qui ont été créées par un algorithme plutôt que par des personnes – et a déclaré qu'il explorerait des moyens de résoudre le problème, comme limiter le nombre de catégories disponibles ou les examiner avant qu'elles ne soient affichées. aux acheteurs.
"Il y a des moments où du contenu apparaît sur notre plate-forme qui enfreint nos normes", a déclaré Rob Leathern, directeur de la gestion des produits chez Facebook. "Dans ce cas, nous avons supprimé les champs de ciblage associés en question. Nous savons que nous avons encore du travail à faire, nous construisons donc également de nouvelles barrières de sécurité dans nos processus de produit et de révision pour éviter que d'autres problèmes comme celui-ci ne se reproduisent à l'avenir.
La publicité de Facebook est devenue un centre d'attention national depuis qu'il a révélé la semaine dernière qu'il avait découvert pour 100 000 $ de publicités placées pendant la saison des élections présidentielles de 2016 par [des comptes "inauthentiques" qui semblaient être affiliés à la Russie](https://newsroom. fb.com/news/2017/09/information-operations-update/amp/).
Comme de nombreuses entreprises technologiques, Facebook a depuis longtemps adopté une approche non interventionniste de son activité publicitaire. Contrairement aux entreprises de médias traditionnelles qui sélectionnent les audiences qu'elles offrent aux annonceurs, Facebook génère automatiquement ses catégories d'annonces en fonction à la fois de ce que les utilisateurs partagent explicitement avec Facebook et de ce qu'ils véhiculent implicitement à travers leur activité en ligne.
Traditionnellement, les entreprises technologiques ont soutenu que ce n'était pas leur rôle de censurer Internet ou de décourager l'expression politique légitime. À la suite des violentes manifestations à Charlottesville par des groupes de droite qui comprenaient des nazis autoproclamés, Facebook et d'autres entreprises technologiques se sont engagées à renforcer leur surveillance des discours de haine.
Le PDG de Facebook, Mark Zuckerberg, a écrit à l'époque qu'« il n'y a pas de place pour la haine dans notre communauté » et s'est engagé à garder un contact plus étroit un œil sur les messages haineux et les menaces de violence sur Facebook. "C'est une honte que nous ayons encore besoin de dire que les néonazis et les suprémacistes blancs ont tort - comme si ce n'était pas évident", a-t-il écrit.
Mais Facebook n'a apparemment pas intensifié son examen minutieux de sa plateforme d'achat de publicités. Selon toute vraisemblance, les catégories d'annonces que nous avons repérées ont été générées automatiquement parce que les gens avaient répertorié ces thèmes antisémites sur leurs profils Facebook comme un intérêt, un employeur ou un "domaine d'études". L'algorithme de Facebook transforme automatiquement les intérêts déclarés des gens en catégories publicitaires.
Voici une capture d'écran de notre processus d'achat d'annonces sur le [portail publicitaire] de l'entreprise (https://www.facebook.com/business) :
Ce n'est pas la première controverse sur les catégories d'annonces de Facebook. L'année dernière, ProPublica a été capable de bloquer une publicité que nous avons achetée dans les catégories de logement de Facebook pour qu'elle ne soit pas montrée à Afro-Américains, Hispaniques et Américains d'origine asiatique, soulevant la question de savoir si un tel ciblage publicitaire violait les lois contre la discrimination dans la publicité immobilière. Après la parution de l'article de ProPublica, Facebook a mis en place un système qui, selon lui, [empêcherait l'approbation de telles publicités](https://www.propublica.org/article/facebook-to-stop-allowing-some-advertisers-to-exclude- utilisateurs par race).
L'année dernière, ProPublica a également collecté une liste des catégories publicitaires que Facebook fournissait aux annonceurs. Nous avons téléchargé plus de 29 000 catégories d'annonces à partir du système d'annonces de Facebook — et avons trouvé des catégories allant d'un intérêt pour les « saucisses hongroises » à « les personnes dans des ménages dont le revenu familial est estimé entre 100 000 $ et 125 000 $ ».
À ce moment-là, nous n'avons trouvé aucune catégorie antisémite, mais nous ne savons pas si nous avons capturé toutes les catégories d'annonces possibles de Facebook, ou si ces catégories ont été ajoutées plus tard. Un porte-parole de Facebook n'a pas répondu à une question sur le moment où les catégories ont été introduites.
La semaine dernière, agissant sur un conseil, nous nous sommes connectés au système de publicité automatisé de Facebook pour voir si "Jew hater" était vraiment une catégorie de publicité. Nous l'avons trouvé, mais avons découvert que la catégorie - avec seulement 2 274 personnes - était trop petite pour que Facebook nous permette d'acheter une publicité liée uniquement aux juifs haineux.
Le système automatisé de Facebook a suggéré le "Deuxième amendement" comme catégorie supplémentaire qui augmenterait la taille de notre audience à 119 000 personnes, probablement parce que son système avait corrélé les passionnés d'armes à feu avec les antisémites.
Le site montre aux utilisateurs comment Facebook les classe. Il ne révèle pas les données qu'il achète sur leur vie hors ligne.
Au lieu de cela, nous avons choisi des catégories supplémentaires qui sont apparues lorsque nous avons tapé "jew h" : "Comment brûlons les juifs » et « Histoire de « pourquoi les juifs ruinent le monde ». » Ensuite, nous avons ajouté une catégorie suggérée par Facebook [lorsque nous avons tapé « Hitler] (https://assets.propublica.org/images/articles/20170914- Suggested-Categories-Hitler.png) » : une catégorie appelée « Hitler n'a rien fait de mal ». Tous ont été décrits comme des « domaines d'études ».
Ces catégories d'annonces étaient minuscules. Seules deux personnes ont été répertoriées comme taille d'audience pour "[comment brûler des juifs](https://assets.propublica.org/images/articles /20170914-2-people-in-how-to-burn-jews-category.png) », et un seul pour « Histoire de '[pourquoi les juifs ruinent le monde.' »](https://assets.propublica. org/images/articles/20170914-1-person-for-how-jews-ruin-the-world.png) 15 autres personnes constituaient l'audience de "[Hitler n'a rien fait de mal] (https://assets.propublica.org /images/articles/20170914-15-for-Hitler-did-nothing-wrong.png).
Le système automatisé de Facebook nous a indiqué que nous n'avions toujours pas un public suffisamment large pour effectuer un achat. Nous avons donc ajouté le « Schutzstaffel allemand », communément appelé les SS nazis, et le « Parti nazi », qui ont tous deux été décrits aux annonceurs comme des groupes d'« employeurs ». Leurs audiences étaient plus larges : 3 194 pour les SS et [2 449 pour Parti nazi] (https://assets.propublica.org/images/articles/20170914-2249-listed-under-Nazi-Party.png).
Pourtant, Facebook a déclaré que nous avions besoin de plus – nous avons donc ajouté des personnes intéressées par le Parti national démocrate d'Allemagne, un parti politique ultranationaliste d'extrême droite, avec son [audience beaucoup plus large de 194 600] (https://assets.propublica. org/images/articles/20170914-194600-potential-audience-for-NPD.png).
Une fois que nous avons eu notre public, nous avons soumis notre annonce - qui faisait la promotion d'un [article de presse ProPublica non lié] (https://www.facebook.com/propublica/posts/10155773410229445). En 15 minutes, Facebook a approuvé notre annonce, avec un changement. Dans son écran d'approbation, Facebook a décrit la catégorie de ciblage publicitaire « Haineux des juifs » comme « Antysemityzm », le mot polonais pour l'antisémitisme. Juste pour nous assurer qu'il faisait référence à la même catégorie, nous avons acheté deux annonces supplémentaires en utilisant le terme "Jew hater" en combinaison avec [other](https://assets.propublica.org/images/articles/20170914-Ad-buy -2-what-we-submitted.png) conditions. Les deux [fois](https://assets.propublica.org/ images/articles/20170914-Ad-buy-3-what-Facebook-accepted.png), Facebook a changé la catégorie de ciblage publicitaire « Jew hater » en « Antisemityzm » dans son approbation.
Voici l'une de nos publicités approuvées de Facebook :
Quelques jours plus tard, Facebook nous a envoyé les résultats de nos campagnes. Nos trois annonces ont atteint 5 897 personnes, générant 101 clics et 13 « engagements » - qui pourraient être un « J'aime », un « partage » ou un commentaire sur une publication.
Depuis que nous avons contacté Facebook, la plupart des catégories antisémites ont disparu.
Le porte-parole de Facebook, Joe Osborne, a déclaré qu'ils ne semblaient pas avoir été largement utilisés. "Nous avons examiné l'utilisation de ces audiences et de ces campagnes et ce n'est ni courant ni répandu", a-t-il déclaré.
Nous avons recherché des catégories publicitaires analogues pour d'autres religions, telles que "les musulmans qui détestent". Facebook ne les avait pas.
Mise à jour, 14 septembre 2017 : Cette histoire a été mise à jour pour inclure le nom du porte-parole de Facebook.