Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2259

Incidentes Asociados

Incidente 3805 Reportes
Facebook's Auto-Generated Targeting Ad Categories Contained Anti-Semitic Options

Loading...
¿Podría Facebook haber captado su publicidad dirigida a los 'enemigos de los judíos'?
theatlantic.com · 2017

Facebook vive y muere por sus algoritmos. Ellos deciden el orden de las publicaciones en su sección de noticias, los anuncios que ve cuando abre la aplicación y qué temas de noticias son tendencia. Los algoritmos hacen posible su amplia plataforma, y a menudo parece que Facebook confía en ellos por completo, o al menos sin pensar.

El jueves, se hizo evidente una trampa de ese enfoque. ProPublica reveló que las personas que compran anuncios en Facebook pueden optar por orientarlos a los autodenominados antisemitas . La herramienta de orientación de anuncios de la compañía permite a las empresas mostrar anuncios específicamente a personas que usan el lenguaje "odiador de judíos" o "Cómo quemar judíos" en su perfil.

La cantidad de personas en esos grupos por sí sola no es lo suficientemente grande como para orientar un anuncio, ya que Facebook solo permitirá que los anunciantes se enfoquen en grupos de varios miles de personas. El portal de venta de anuncios de la plataforma informó, como máximo, de 2.200 "odiadores de judíos" egoístas.

Pero las categorías antisemitas se pueden agrupar en grupos más grandes, que pueden ser el objetivo. Cuando ProPublica intentó comprar un anuncio por primera vez, el servicio sugirió que agregara la "Segunda Enmienda", presumiblemente porque los autodenominados "enemigos de los judíos" también expresaron interés en esa ley. ProPublica rechazó su sugerencia y, en última instancia, se centró en los fanáticos del Partido Nacional Democrático de Alemania, una organización ultranacionalista a menudo descrita como neonazi.

ProPublica no argumenta que Facebook realmente haya creado un grupo demográfico antisemita al que pueda dirigirse la publicidad. Más bien, sugiere que los algoritmos, que desarrollaron la lista de datos demográficos objetivo, vieron a suficientes personas describiéndose a sí mismas como "odiadoras de los judíos" para agruparlas en un solo grupo.

“Facebook no sabe lo que está haciendo su propio algoritmo”, dijo Susan Benesch, profesora asociada del Berkman Klein Center for Internet and Society y directora del Dangerous Speech Project. “No es el caso de que alguien en Facebook esté sentado en un cuarto oscuro riendo y diciendo: ‘Alentemos a la gente a vender anuncios nazis a los simpatizantes nazis’”.

Ella continuó: “De alguna manera, eso sería mucho más fácil de corregir, porque habría alguna intención, alguna mala persona haciendo esto a propósito en alguna parte. El algoritmo no tiene una mala intención”.

"Lamentablemente, no es sorprendente que las personas expresen puntos de vista de odio en Facebook, pero fue sorprendente ver que el odio se refleja en las categorías que Facebook usa para vender anuncios", dijo Aaron Rieke, tecnólogo de Upturn, una organización de derechos civiles. y consultora de tecnología con sede en Washington, D.C.

Sugirió que la supervisión humana puede ser el mejor mecanismo para evitar este tipo de error. "No tenemos que preocuparnos demasiado por este problema", me dijo: Incluso si su lista de categorías algorítmicas tiene decenas de miles de entradas, tomaría relativamente poco tiempo para que un par de empleados pagados a tiempo completo atraviésalo.

“La rendición de cuentas real se lleva a cabo a través de canales públicos”.

“Esta no es una situación en la que le estás pidiendo a Facebook que controle el océano de contenido de los usuarios”, dijo. “Esto está diciendo: Bien, tienes una lista finita de categorías, muchas de las cuales se generaron automáticamente. Eche un vistazo y vea qué coincide con los estándares de su comunidad y los valores de la empresa. Facebook puede monitorear las cosas que hace para generar dinero”.

Después de que ProPublica publicara su historia, Facebook dijo que había eliminado las categorías de anuncios ofensivos. “Sabemos que tenemos más trabajo por hacer, por lo que también estamos construyendo nuevas barreras en nuestros productos y procesos de revisión para evitar que ocurran otros problemas como este en el futuro”, dijo Rob Leathern, director de gestión de productos en Facebook, en una declaración.

También reiteró que Facebook no permite discursos de odio. “Los estándares de nuestra comunidad prohíben estrictamente atacar a las personas en función de sus características protegidas, incluida la religión, y prohibimos que los anunciantes discriminen a las personas en función de la religión y otros atributos”.

En octubre pasado, otra investigación de ProPublica reveló que Facebook permitía a los propietarios y otros proveedores de viviendas omitir ciertas razas al vender publicidad, una práctica que viola la Ley de Vivienda Justa.

Para Jonathan Zittrain, profesor de derecho en la Universidad de Harvard, esa historia sugiere que toda la forma en que las empresas de tecnología actualmente venden anuncios en línea podría necesitar una revisión. “Para categorías con audiencias pequeñas, con títulos extraídos de datos que ingresan los propios usuarios de Facebook, como educación e intereses, puede equivaler a un árbol que cae en un bosque que nadie escucha”, dijo. “Pero si algo más que un tráfico de anuncios insignificante comienza con categorías, existe la responsabilidad de ver qué admite la plataforma”.

Él continuó:

En términos más generales, debe haber un centro de intercambio de información público de categorías de anuncios, y anuncios, que cualquier persona interesada en lo que se muestra a audiencias grandes y pequeñas pueda buscar. Los prestamistas sin escrúpulos no deberían ser capaces de dirigirse exquisitamente a las personas vulnerables en sus mayores momentos de debilidad sin que nadie más lo supiera, y la rendición de cuentas real se lleva a cabo a través de canales públicos, no solo mediante la adición de otro destacamento de "verificadores de anuncios" internos a la empresa.

De hecho, es posible que Facebook no sea el único que permite que se transmitan anuncios sin escrúpulos. El periodista Josh Benton demostró el jueves que muchas de las mismas palabras clave antisemitas que usa Facebook también se pueden usar para comprar anuncios en Google.

Para Facebook, todo este episodio se produce cuando la plataforma se encuentra bajo un escrutinio político sin precedentes. La semana pasada, Facebook admitió [haber vendido $100,000 en anuncios de Internet a una granja de trolls conectada con el Kremlin] (https://www.theatlantic.com/technology/archive/2017/09/facebook-ads-free-speech/539736/) durante las elecciones presidenciales de Estados Unidos del año pasado. Los anuncios, que la compañía no reveló previamente, [podrían haber sido vistos por decenas de millones] (http://www.thedailybeast.com/russias-facebook-fake-news-could-have-reached-70-million- americanos) de americanos.

El miércoles, Facebook anunció nuevas reglas que rigen qué tipos de contenido pueden y no pueden monetizarse en su plataforma, [prohibiendo cualquier contenido violento, pornográfico o relacionado con las drogas o el alcohol] (http://techcrunch.com/2017/ 13/09/facebook-monetización-2/). Las pautas siguieron al debut en todo EE. UU. de [una pestaña de video en su aplicación móvil] (https://techcrunch.com/2017/09/05/facebook-watch-tab/).

Zittrain dijo que el episodio le recordó al [vendedor de camisetas Solid Gold Bomb] (http://money.cnn.com/2013/03/05/smallbusiness/keep-calm-and-carry-on/index.html) . En 2011, esa empresa usó un software para generar automáticamente más de 10 millones de camisetas posibles, casi todas variaciones de un par de temas. Las camisas solo se producían cuando alguien realmente pedía una. Pero después de que la lista de Amazon de una camiseta, que decía "MANTENER LA CALMA Y VIOLAR MUCHO" se volvió viral en 2013, Amazon cerró las cuentas de la compañía y vio colapsar su negocio.

Su punto: los algoritmos pueden parecer ingeniosos para ganar dinero, hacer camisetas o realizar cualquier tarea, hasta que de repente dejan de serlo. Pero Facebook es más importante que las camisetas: después de todo, el estadounidense promedio [pasa 50 minutos de su tiempo](https://www.nytimes.com/2016/05/06/business/facebook-bends-the-rules -of-audience-engagement-to-its-advantage.html?mcubz=1&_r=0) todos los días. Los algoritmos de Facebook hacen más que hacer posible la plataforma. También sirven como escuela diaria, pregonero y editor de periódicos del país. Con una gran escala viene una gran responsabilidad.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd