Incidentes Asociados
- Facebook se disculpó por eliminar una publicación que contenía extractos de la Declaración de Independencia, diciendo que se marcó por error como discurso de odio.
- Además de disculparse, Facebook ha restaurado la publicación.
- Este es solo el último ejemplo de alto perfil del algoritmo de incitación al odio de Facebook que comete un error.
En otro caso viral de Facebook que lucha por vigilar el discurso de odio en su plataforma, partes de la Declaración de Independencia publicadas por un periódico en Texas fueron eliminadas a principios de esta semana después de que el gigante de las redes sociales señalara los extractos como discurso de odio.
Desde entonces, la publicación ha sido restaurada y Facebook se ha disculpado.
The Vindicator, un pequeño periódico comunitario en el condado de Liberty, Texas, comenzó a publicar extractos de la Declaración de Independencia a principios de esta semana antes del 4 de julio. Si bien el periódico pudo publicar la mayor parte de la Declaración de Independencia sin ningún problema, una publicación contenía la frase "Salvajes indios", que, fuera de contexto, parecería violar los estándares de la comunidad de Facebook.
Aquí está la frase completa:
“Él ha provocado insurrecciones domésticas entre nosotros, y se ha esforzado por atraer a los habitantes de nuestras fronteras, los salvajes indios despiadados, cuya conocida regla de guerra es una destrucción común de todas las edades, sexos y condiciones”.
Los sistemas automatizados de Facebook podrían haber detectado el uso de "salvajes indios" y activar la plataforma para eliminar la publicación, dijo la compañía. Pero después de que los editores de The Vindicator [publicaron una historia] (http://www.thevindicator.com/news/article_556e1014-7e41-11e8-a85e-ab264c30e973.html) al respecto el 3 de julio y notificaron a Facebook, la compañía restableció la publicación y se disculpó
“La publicación se eliminó por error y se restauró tan pronto como la investigamos. Procesamos millones de informes cada semana y, a veces, nos equivocamos”, dijo un portavoz de Facebook a Business Insider.
Este es solo el último ejemplo de alto perfil de un caso en el que el algoritmo de incitación al odio de Facebook cometió un error. Facebook usa una combinación de humanos y automatización para revisar las publicaciones, y aunque la empresa dijo que está al tanto de los problemas complejos que rodean el discurso de odio, como la intención y el contexto, a veces se cometen errores.
Facebook ha dicho que planea contratar a miles de revisores humanos más, pero este incidente muestra cómo el gigante de las redes sociales todavía está buscando la mejor manera de eliminar el discurso de odio sin censurar la expresión legítima.