Incidentes Asociados

Actualización: Facebook ha [deshabilitado el uso de los campos informados por el usuario en cuestión](https://beta.techcrunch.com/2017/09/15/facebook-halts-ad-targeting-of-profile-details- abused-by-users/) en su sistema de publicidad hasta nuevo aviso.
Actualización 2: Google también inhabilitó una funcionalidad similar en su propio sistema de orientación de anuncios. (Detalles abajo)
Facebook genera automáticamente categorías a las que los anunciantes pueden dirigirse, como "corredor" y "activista", en función de lo que observa en los perfiles de los usuarios. Por lo general, eso no es un problema, pero ProPublica descubrió que Facebook había [generado categorías antisemitas como "Odiador de judíos" y "Hitler no hizo nada malo"] (https://www.propublica.org/article/facebook-enabled- anunciantes para llegar a los que odian a los judíos) que podrían ser objeto de publicidad.
Las categorías eran pequeñas (unos pocos miles de personas en total), pero el hecho de que existieran para la orientación oficial (y, a su vez, para generar ingresos para Facebook) en lugar de ser marcadas plantea dudas sobre la efectividad, o incluso la existencia, de los controles del discurso de odio en la plataforma. . Aunque seguramente innumerables publicaciones se marcan y eliminan con éxito, las fallas a menudo son [conspicuas] (https://beta.techcrunch.com/2017/08/02/another-black-activist-ijeoma-oluo-is-suspended-by- facebook-para-publicar-sobre-racismo/).
ProPublica, siguiendo un consejo, descubrió que un puñado de categorías se completaban automáticamente cuando sus investigadores ingresaban "judíos h" en el cuadro de búsqueda de categorías de publicidad. Para verificar que fueran reales, agruparon algunos y compraron un anuncio dirigido a ellos, que de hecho se puso en marcha.
Al recibir la alerta, Facebook eliminó las categorías y emitió una declaración enérgica que suena familiar sobre cuán dura es la compañía con el discurso de odio:
No permitimos el discurso de odio en Facebook. Los estándares de nuestra comunidad prohíben estrictamente atacar a las personas en función de sus características protegidas, incluida la religión, y prohibimos que los anunciantes discriminen a las personas en función de su religión y otros atributos. Sin embargo, hay momentos en los que aparece contenido en nuestra plataforma que viola nuestros estándares. En este caso, hemos eliminado los campos de orientación asociados en cuestión. Sabemos que tenemos más trabajo por hacer, por lo que también estamos construyendo nuevas barreras en nuestro producto y procesos de revisión para evitar que ocurran otros problemas como este en el futuro.
El problema se produjo porque las personas enumeraban a los que odiaban a los judíos y similares en su categoría de "campo de estudio", que por supuesto es buena para adivinar qué podría interesarle a una persona: meteorología, ciencias sociales, etc. Aunque los números eran extremadamente pequeños, eso no debería ser una barrera para un anunciante que busca llegar a un grupo muy limitado, como los dueños de una raza de perro rara.
Pero por más difícil que sea para un algoritmo determinar la diferencia entre la "Historia del judaísmo" y la "Historia de 'por qué los judíos arruinan el mundo'", realmente parece incumbir a Facebook asegurarse de que un algoritmo sí tome esa determinación. Como mínimo, cuando las categorías son potencialmente sensibles y se ocupan de datos personales como religión, política y sexualidad, uno pensaría que serían verificadas por humanos antes de ofrecerlas a los posibles anunciantes.
Facebook le dijo a TechCrunch que ahora está trabajando para evitar que tales entradas ofensivas en los rasgos demográficos aparezcan como categorías direccionables. Por supuesto, en retrospectiva es 20/20, pero en realidad, ¿solo ahora está haciendo esto?
Es bueno que se estén tomando medidas, pero es un poco difícil de creer que no haya algún tipo de lista de banderas que vigile las categorías o grupos que violan claramente la disposición de no hablar de odio. Le pedí a Facebook más detalles sobre esto y actualizaré la publicación si recibo una respuesta.
Como señaló Joshua Benton de Harvard en Twitter, uno también puede dirigirse a los mismos grupos para las palabras publicitarias de Google:
Siento que esto es diferente de alguna manera, aunque sigue siendo preocupante. Podría poner palabras sin sentido en esos cuadros de palabras clave y serían aceptadas. Por otro lado, Google sugiere frases antisemitas relacionadas en caso de que sienta que "los que odian a los judíos" no son lo suficientemente amplios:
Para mí, el mecanismo de Facebook se parece más a una selección de Facebook de datos de perfil existentes, casi aprobados (es decir, no marcados) que cree que se ajustan a lo que está buscando, mientras que Google es una asociación más sin sentido de consultas que ha tenido: y tiene menos margen para eliminar cosas, ya que no puede permitir que las personas busquen insultos étnicos o similares. Pero obviamente no es tan simple. Sinceramente, no estoy muy seguro de qué pensar.
El vicepresidente sénior de anuncios de Google, Sridhar Ramaswamy, emitió la siguiente declaración después de deshabilitar una serie de sugerencias de anuncios ofensivos:
Nuestro objetivo es evitar que nuestra herramienta de sugerencias de palabras clave haga sugerencias ofensivas y evitar que aparezcan anuncios ofensivos. Tenemos un lenguaje que informa a los anunciantes cuando sus anuncios son ofensivos y, por lo tanto, rechazados. En este caso, los anuncios no se publicaron con la gran mayoría de estas palabras clave, pero no detectamos todas estas sugerencias ofensivas. Eso no es lo suficientemente bueno y no estamos poniendo excusas. Ya hemos desactivado estas sugerencias y todos los anuncios que se transmitieron, y trabajaremos más duro para evitar que esto vuelva a suceder.
Los términos ofensivos no verán sugerencias de Google, aunque no está claro cómo llegó Google al conjunto de términos o frases que considera ofensivos.