Incidentes Asociados

Cuota
La función de traducción automática de Facebook permite a los usuarios conectarse más allá de las barreras del idioma, pero una traducción incorrecta de un simple "buenos días" resultó ser un desastre para un hombre palestino. Cuando el trabajador de la construcción publicó una foto de su sitio de trabajo, la función de traducción de Facebook supuestamente convirtió el árabe "buenos días" en hebreo "atacadlos" y en inglés "lastimarlos", lo que resultó en el arresto del hombre.
Según el periódico israelí Haaretz, el hombre fue arrestado cuando la policía israelí vio el mensaje de traducción automática la semana pasada, que iba acompañado de una foto del hombre apoyado contra una excavadora disfrutando de lo que parece ser un café matutino y un cigarrillo en una construcción de Cisjordania. sitio cerca de Jerusalén. La confusión se debió a que el sistema identificó erróneamente una palabra árabe similar que significa "herir".
La traducción incorrecta marcó la publicación, notificando a las autoridades locales que también usan algoritmos para señalar posibles amenazas. La policía respondió tanto por la traducción como por la imagen. Según la policía, las excavadoras se han utilizado antes en ataques terroristas como vehículos de atropello y fuga.
Después del interrogatorio y después de que una oficina de habla árabe leyera la publicación original, la policía se dio cuenta del error y el hombre fue liberado después de unas horas.
En un comunicado, Facebook se disculpó por el error. La compañía dice que, si bien los algoritmos de traducción automática mejoran todos los días, ocasionalmente ocurren errores de interpretación. Facebook dijo que está trabajando para evitar que el error vuelva a ocurrir.
La inteligencia artificial está detrás de la función de traducción de Facebook: cuando la empresa cambió por completo a su propio sistema el año pasado, el software manejó alrededor de 2 mil millones de traducciones al día en 40 idiomas. Las opciones adicionales permiten a los usuarios reportar malas traducciones y calificar el texto traducido.
La red social más popular utiliza una serie de algoritmos diferentes para monitorear las publicaciones, pero una serie de eventos recientes hacen que la plataforma prometa una supervisión más humana del proceso en varias áreas diferentes. Un conjunto de métricas de orientación de anuncios para grupos de odio y noticias falsas promocionadas en la sección de tendencias son solo algunos ejemplos de incidentes que provocaron cambios en los sistemas de monitoreo de la plataforma. A principios de 2017, la compañía dijo que agregaría 3000 moderadores para revisar las publicaciones marcadas por los usuarios por violar los Estándares de la comunidad.