Incidentes Asociados

Moderar un grupo de jardinería de Facebook en el oeste de Nueva York no está exento de desafíos. Hay quejas de chinches, inclemencias del tiempo y miembros novatos que insisten en usar detergente para platos en sus plantas.
Y luego está la palabra "azada".
Los algoritmos de Facebook a veces marcan esta palabra en particular como "violando los estándares de la comunidad", aparentemente refiriéndose a una palabra diferente, una sin una "e" al final que, sin embargo, a menudo se escribe mal como herramienta de jardín.
Normalmente, los sistemas automatizados de Facebook marcarán las publicaciones con material ofensivo y las eliminarán. Pero si los miembros de un grupo, o peor aún, los administradores, violan las reglas demasiadas veces, todo el grupo puede cerrarse.
Elizabeth Licata, una de las moderadoras del grupo, estaba preocupada por esto. Después de todo, el grupo, WNY Gardeners, tiene más de 7500 miembros que lo utilizan para obtener consejos y recomendaciones sobre jardinería. Ha sido especialmente popular durante la pandemia, cuando muchas personas confinadas en sus hogares comenzaron a trabajar en la jardinería por primera vez.
Una azada con cualquier otro nombre podría ser un rastrillo, una rastra o un rotocultor. Pero Licata no estaba dispuesta a prohibir la palabra del grupo, o tratar de eliminar cada instancia. Cuando un miembro del grupo comentó "¡Push pull hoe!" en una publicación que solicitaba "su herramienta de deshierbe más querida e indispensable", Facebook envió una notificación que decía: "Revisamos este comentario y descubrimos que va en contra de nuestros estándares de acoso e intimidación".
Facebook utiliza tanto moderadores humanos como inteligencia artificial para erradicar el material que va en contra de sus reglas. En este caso, un ser humano probablemente habría sabido que una azada en un grupo de jardinería probablemente no sea un caso de acoso o intimidación. Pero la IA no siempre es buena en el contexto y los matices del lenguaje.
También se pierde mucho: los usuarios a menudo se quejan de que informan sobre lenguaje violento o abusivo y las reglas de Facebook de que no viola los estándares de su comunidad. La desinformación sobre vacunas y elecciones ha sido un problema bien documentado y de larga data para la empresa de redes sociales. Por otro lado, hay grupos como el de Licata que quedan atrapados en algoritmos demasiado entusiastas.
“Entonces me puse en contacto con Facebook, que fue inútil. ¿Cómo haces eso?" ella dijo. "Sabes, dije que este es un grupo de jardinería, una azada es una herramienta de jardinería".
Licata dijo que nunca escuchó de una persona y Facebook, y descubrió que navegar por el sistema de encuestas de la red social y las formas de tratar de dejar las cosas claras era inútil.
Contactado por The Associated Press, un representante de Facebook dijo en un correo electrónico esta semana que la compañía encontró al grupo y corrigió las ejecuciones erróneas. También implementó un control adicional, lo que significa que alguien, una persona real, verificará las publicaciones ofensivas antes de que se considere la eliminación del grupo. La compañía no dijo si otros grupos de jardinería tuvieron problemas similares. (En enero, Facebook marcó erróneamente el punto de referencia del Reino Unido de Plymouth Hoe como ofensivo, luego se disculpó, según The Guardian).
“Tenemos planes para desarrollar una mejor atención al cliente para nuestros productos y brindar al público aún más información sobre nuestras políticas y cómo las aplicamos”, dijo Facebook en un comunicado en respuesta a las quejas de Licata.
Entonces, surgió algo más. Licata recibió una notificación de que Facebook deshabilitó automáticamente los comentarios en una publicación debido a “posibles actos de violencia, incitación u odio en varios comentarios”.
Los comentarios ofensivos incluyeron “Mátalos a todos. Ahógalos en agua jabonosa” y “Los escarabajos japoneses son idiotas”.