Incidents associés
Facebook vit et meurt par ses algorithmes. Ils décident de l'ordre des publications dans votre fil d'actualité, des publicités que vous voyez lorsque vous ouvrez l'application et des sujets d'actualité qui sont à la mode. Les algorithmes rendent sa vaste plate-forme possible, et Facebook peut souvent sembler leur faire entièrement confiance, ou du moins sans réfléchir.
Jeudi, un écueil de cette approche est devenu clair. ProPublica a révélé que les personnes qui achètent des publicités sur Facebook peuvent choisir de les cibler sur les antisémites autoproclamés . L’outil de ciblage publicitaire de l’entreprise permet aux entreprises de diffuser des publicités spécifiquement aux personnes qui utilisent le langage « haïsseur de juifs » ou « comment brûler des juifs » sur leur profil.
Le nombre de personnes dans ces groupes à lui seul n'est pas assez important pour cibler une publicité, car Facebook ne laissera les annonceurs se concentrer que sur des groupes de plusieurs milliers de personnes. Le portail de vente de publicités de la plate-forme a signalé, au plus, 2 200 « ennemis des Juifs » intéressés.
Mais les catégories antisémites peuvent être regroupées en groupes plus larges, qui peuvent être ciblés. Lorsque ProPublica a essayé d'acheter une publicité pour la première fois, le service a suggéré d'ajouter "Deuxième amendement", probablement parce que les "haineux des juifs" autoproclamés ont également exprimé un intérêt pour cette loi. ProPublica a décliné sa suggestion, ciblant finalement les fans du Parti national démocrate allemand, une organisation ultranationaliste souvent décrite comme néonazie.
ProPublica ne prétend pas que Facebook a en fait mis en place un groupe démographique antisémite qui peut être ciblé par la publicité. Au contraire, cela suggère que les algorithmes - qui ont développé la liste des données démographiques ciblables - ont vu suffisamment de personnes se décrire comme "haineux des juifs" pour les regrouper en un seul groupe.
"Facebook ne sait pas ce que fait son propre algorithme", a déclaré Susan Benesch, professeure associée au Berkman Klein Center for Internet and Society et directrice du Dangerous Speech Project. "Ce n'est pas le cas si quelqu'un sur Facebook est assis dans une pièce sombre en train de ricaner et a dit : 'Encourageons les gens à vendre des publicités nazies aux sympathisants nazis.'"
Elle a poursuivi: «À certains égards, ce serait beaucoup plus facile à corriger, car il y aurait une intention, une mauvaise personne le faisant exprès quelque part. L’algorithme n’a pas de mauvaise intention.
"Il n'est malheureusement pas surprenant que les gens expriment des opinions haineuses sur Facebook, mais il était surprenant de voir que la haine se reflétait dans les catégories que Facebook utilise pour vendre des publicités", a déclaré Aaron Rieke, technologue chez Upturn, un spécialiste des droits civiques. et société de conseil en technologie basée à Washington, D.C.
Il a suggéré que la surveillance humaine pourrait être le meilleur mécanisme pour éviter ce genre d'erreur. « Nous n'avons pas besoin d'être trop impressionnés par ce problème », m'a-t-il dit : même si sa liste de catégories algorithmiques compte des dizaines de milliers d'entrées, il faudrait relativement peu de temps à quelques employés rémunérés à temps plein pour passer au travers.
« La véritable responsabilisation passe par les canaux publics. »
"Ce n'est pas une situation où vous demandez à Facebook de surveiller l'océan du contenu des utilisateurs", a-t-il déclaré. "Cela signifie : d'accord, vous avez une liste finie de catégories, dont beaucoup ont été générées automatiquement. Jetez un coup d'œil et voyez ce qui correspond aux normes de votre communauté et aux valeurs de l'entreprise. Facebook peut surveiller les choses qu'il fait qui lui rapportent de l'argent.
Après que ProPublica a publié son histoire, Facebook a déclaré avoir supprimé les catégories d'annonces incriminées. "Nous savons que nous avons encore du travail à faire, nous construisons donc également de nouveaux garde-fous dans nos processus de produit et de révision pour éviter que d'autres problèmes comme celui-ci ne se reproduisent à l'avenir", a déclaré Rob Leathern, directeur de la gestion des produits chez Facebook, dans une déclaration.
Il a également réitéré que Facebook n'autorise pas les discours de haine. "Nos normes communautaires interdisent strictement d'attaquer des personnes sur la base de leurs caractéristiques protégées, y compris la religion, et nous interdisons aux annonceurs de discriminer les personnes sur la base de la religion et d'autres attributs."
En octobre dernier, une autre enquête ProPublica a révélé que Facebook permettait aux propriétaires et autres fournisseurs de logements d'omettre certaines races lors de la vente la publicité, une pratique qui viole le Fair Housing Act.
Pour Jonathan Zittrain, professeur de droit à l'Université de Harvard, cette histoire suggère que toute la façon dont les entreprises technologiques vendent actuellement des publicités en ligne pourrait nécessiter une refonte. "Pour les catégories avec un petit public, avec des titres tirés de données que les utilisateurs de Facebook saisissent eux-mêmes, comme l'éducation et les intérêts, cela peut équivaloir à un arbre tombant dans une forêt que personne n'entend", a-t-il déclaré. "Mais si quelque chose de plus qu'un trafic publicitaire négligeable commence par des catégories, il est de la responsabilité de voir ce que la plate-forme prend en charge."
Il a continué:
Plus généralement, il devrait y avoir un centre d'échange public de catégories d'annonces - et d'annonces - consultables par toute personne intéressée par ce qui est montré à des publics grands et petits. Les prêteurs peu scrupuleux ne devraient pas être en mesure de cibler de manière exquise les personnes vulnérables à leurs plus grands moments de faiblesse sans que personne d'autre ne le sache, et une véritable responsabilité s'effectue par le biais des canaux publics, pas seulement en ajoutant un autre détachement de « vérificateurs de publicités » internes à l'entreprise.
En effet, Facebook n'est peut-être pas le seul à laisser passer des publicités peu scrupuleuses. Le journaliste Josh Benton a démontré jeudi que bon nombre des mêmes mots-clés antisémites utilisés par Facebook peuvent également être utilisés pour acheter des publicités sur Google.
Pour Facebook, tout cet épisode survient alors que la plateforme fait l'objet d'un examen politique sans précédent. La semaine dernière, Facebook a admis avoir vendu 100 000 $ de publicités sur Internet à une ferme de trolls connectée au Kremlin lors de l'élection présidentielle américaine de l'année dernière. Les publicités, que la société n'avait pas révélées auparavant, [auraient pu être vues par des dizaines de millions](http://www.thedailybeast.com/russias-facebook-fake-news-could-have-reached-70-million- américains) des Américains.
Mercredi, Facebook a annoncé de nouvelles règles régissant les types de contenu qui peuvent et ne peuvent pas être monétisés sur sa plate-forme, [interdisant tout contenu violent, pornographique ou lié à la drogue ou à l'alcool] (http://techcrunch.com/2017/ 13/09/facebook-monétisation-2/). Les directives ont suivi le lancement aux États-Unis de un onglet vidéo dans son application mobile.
Zittrain a déclaré que l'épisode lui rappelait le vendeur de t-shirts Solid Gold Bomb . En 2011, cette entreprise a utilisé un logiciel pour générer automatiquement plus de 10 millions de T-shirts possibles, presque toutes des variations sur quelques thèmes. Les chemises n'étaient produites que lorsque quelqu'un en commandait une. Mais après que la liste d'Amazon pour une chemise, qui disait "KEEP CALM AND RAPE BEAUCOUP", soit devenue virale en 2013, Amazon a fermé les comptes de l'entreprise, et elle a vu son activité s'effondrer.
Son point de vue : les algorithmes peuvent sembler ingénieux pour gagner de l'argent, fabriquer des t-shirts ou effectuer n'importe quelle tâche, jusqu'à ce qu'ils ne le fassent plus. Mais Facebook est plus important que les t-shirts : après tout, l'Américain moyen [passe 50 minutes de son temps](https://www.nytimes.com/2016/05/06/business/facebook-bends-the-rules -of-audience-engagement-to-its-advantage.html?mcubz=1&_r=0) là tous les jours. Les algorithmes de Facebook font plus que rendre la plateforme possible. Ils servent également d'école quotidienne, de crieur public et de rédacteur en chef du pays. Avec une grande échelle vient une grande responsabilité.