Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1544

Incidentes Asociados

Incidente 1695 Reportes
Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

Loading...
Por qué Facebook está perdiendo la guerra contra el discurso de odio en Myanmar
reuters.com · 2018

YANGON, Myanmar – En abril, el fundador de Facebook, Mark Zuckerberg, les dijo a los senadores estadounidenses que el sitio de redes sociales estaba contratando a docenas más de hablantes de birmano para revisar los discursos de odio publicados en Myanmar. La situación era terrible. Unos 700.000 miembros de la comunidad rohingya habían huido recientemente del país en medio de una represión militar y violencia étnica. En marzo, un investigador de las Naciones Unidas dijo que Facebook se usaba para incitar a la violencia y el odio contra el grupo minoritario musulmán. La plataforma, dijo, se había “convertido en una bestia”. Cuatro meses después de que Zuckerberg se comprometiera a actuar, aquí hay una muestra de las publicaciones de Myanmar que se pudieron ver este mes en Facebook: un usuario publicó un anuncio de restaurante con comida al estilo rohingya. ¡Debemos luchar contra ellos como Hitler lo hizo con los judíos, malditos kalars! escribió la persona, usando un peyorativo para los rohingya. Esa publicación se publicó en diciembre de 2013. Otra publicación mostraba un artículo de noticias de una publicación controlada por el ejército sobre ataques a estaciones de policía por parte de militantes rohingya. “Estos perros kalar no humanos, los bengalíes, están matando y destruyendo nuestra tierra, nuestra agua y nuestra etnia”, escribió el usuario. “Necesitamos destruir su raza”. Esa publicación subió en septiembre pasado, cuando la violencia contra los rohingya alcanzó su punto máximo. Un tercer usuario compartió un artículo de blog que muestra un barco lleno de refugiados rohingya que aterrizan en Indonesia. “Echar combustible y prender fuego para que puedan encontrarse con Alá más rápido”, escribió un comentarista. La publicación apareció 11 días después del testimonio de Zuckerberg en el Senado. Los comentarios se encuentran entre más de 1.000 ejemplos que encontró Reuters de publicaciones, comentarios, imágenes y videos que atacaban a los rohingya u otros musulmanes de Myanmar que estaban en Facebook la semana pasada. Casi todos están en el principal idioma local, el birmano. La invectiva anti-rohingya y anti-musulmana analizada para este artículo, que fue recopilada por Reuters y el Centro de Derechos Humanos de la Facultad de Derecho de UC Berkeley, incluye material que ha estado en Facebook durante seis años. Los mensajes venenosos llaman a los rohingya u otros musulmanes perros, gusanos y violadores, sugieren que se les dé de comer a los cerdos e instan a que se les dispare o extermine. El material también incluye imágenes antimusulmanas crudamente pornográficas. Las reglas de la compañía prohíben específicamente atacar a grupos étnicos con “discursos violentos o deshumanizantes” o compararlos con animales. Facebook también ha tenido durante mucho tiempo una política estricta contra el contenido pornográfico. El uso de Facebook para difundir discursos de odio contra los rohingya en el país de mayoría budista ha sido ampliamente informado por la ONU y otros. Ahora, una investigación de Reuters da una mirada al interior de por qué la empresa no ha podido detener el problema. Durante años, Facebook, que registró ingresos netos de 15.900 millones de dólares en 2017, dedicó escasos recursos a combatir el discurso de odio en Myanmar, un mercado que domina y en el que ha habido brotes regulares de violencia étnica. A principios de 2015, solo había dos personas en Facebook que podían hablar birmano y revisaban publicaciones problemáticas. Antes de eso, la mayoría de las personas que revisaban el contenido en birmano hablaban inglés. Hasta el día de hoy, la empresa sigue dependiendo en gran medida de los usuarios que denuncian expresiones de odio, en parte porque sus sistemas tienen dificultades para interpretar el texto en birmano. Incluso ahora, Facebook no tiene un solo empleado en el país de unos 50 millones de personas. En cambio, monitorea el discurso de odio desde el exterior. Esto se hace principalmente a través de una operación secreta en Kuala Lumpur que se subcontrata a Accenture, la firma de servicios profesionales, y cuyo nombre en código es "Proyecto Honey Badger". Según personas familiarizadas con el tema, el proyecto, que maneja muchos países asiáticos, contrató a sus dos primeros hablantes de birmano, que tenían su sede en Manila, hace apenas tres años. Hasta junio, Honey Badger tenía alrededor de 60 personas revisando informes de incitación al odio y otro contenido publicado por los 18 millones de usuarios activos de Facebook de Myanmar. En abril, Facebook mismo tenía tres hablantes de birmano a tiempo completo en una operación de monitoreo separada en su sede internacional en Dublín, según un ex empleado. Los empleados de Honey Badger suelen firmar contratos renovables de un año y acuerdan no divulgar que el cliente es Facebook. Reuters entrevistó a más de media docena de ex monitores que revisaron el contenido del sudeste asiático. Un funcionario de Facebook dijo que subcontratar el monitoreo de su contenido es más eficiente porque las empresas que utiliza son especialistas en aumentar este tipo de operaciones. Se negó a revelar cuántos hablantes de birmano tiene la compañía en el trabajo en todo el mundo y dijo que era "imposible saber, ser definitivo al respecto". “No es suficiente”, agregó. Para muchas personas en esta economía emergente, Facebook es Internet: es tan dominante que es el único sitio que usan en línea. Sin embargo, la compañía ignoró las repetidas advertencias desde 2013 de que enfrentaba problemas. Investigadores y activistas de derechos humanos dicen que advirtieron a Facebook durante años que su plataforma estaba siendo utilizada en Myanmar para promover el racismo y el odio a los musulmanes, en particular a los rohingya. “Se les advirtió muchas veces”, dijo David Madden, un empresario tecnológico que trabajó en Myanmar. Dijo que les dijo a los funcionarios de Facebook en 2015 que su plataforma estaba siendo explotada para fomentar el odio en una charla que dio en su sede en Menlo Park, California. Alrededor de una docena de personas de Facebook asistieron a la reunión en persona, incluida Mia Garlick, ahora directora de política de Asia Pacífico de la compañía, dijo. Otros se unieron a través de video. “No se les podría haber presentado más claramente, y no tomaron las medidas necesarias”, dijo Madden. En un comunicado, Garlick dijo a Reuters: “Fuimos demasiado lentos para responder a las preocupaciones planteadas por la sociedad civil, académicos y otros grupos en Myanmar. No queremos que Facebook se utilice para difundir el odio e incitar a la violencia. Esto es cierto en todo el mundo, pero es especialmente cierto en Myanmar, donde nuestros servicios pueden usarse para amplificar el odio o exacerbar el daño contra los rohingya”. Agregó que Facebook se enfoca en abordar los desafíos que son exclusivos de Myanmar “a través de una combinación de personas, tecnología, políticas y programas”. La compañía también dijo que ha prohibido varias “figuras y organizaciones de odio” en Facebook en Myanmar. Las luchas de Facebook en Myanmar se encuentran entre los problemas mucho más amplios que enfrenta. El testimonio de Zuckerberg ante el Congreso en abril se centró principalmente en el mal manejo de los datos de los usuarios por parte de la empresa, ya sea que censure las opiniones conservadoras y la explotación de Facebook por parte de Rusia para entrometerse en las elecciones presidenciales estadounidenses de 2016. “Corta los cuellos de los hijos del perro y patéalos al agua” “Mete grasa de cerdo dentro de la boca del maldito kalar” “Echa combustible y prende fuego para que puedan encontrarse con Alá más rápido” De todas las tribulaciones de Facebook, sin embargo, Myanmar puede ser el más sangriento. El ejército de Myanmar está acusado por la ONU de haber llevado a cabo una brutal campaña de asesinatos, violaciones masivas, incendios provocados y limpieza étnica contra los rohingya. El gobierno niega las acusaciones. El gigante de las redes sociales no hace públicos sus datos sobre el discurso de odio en Myanmar. Dice que tiene 2.200 millones de usuarios globales y cada semana recibe millones de informes de usuarios de todo el mundo sobre contenido problemático. Al recopilar ejemplos de discursos de odio para este artículo, Reuters encontró algunos que Facebook eliminó posteriormente. Pero la gran mayoría permaneció en línea a principios de agosto. Después de que Reuters alertó a Facebook sobre algunas de las publicaciones despectivas incluidas en esta historia, la compañía dijo que las eliminó. “Todo esto violó nuestras políticas”, dijo. El propio Reuters a veces señala a Facebook las amenazas publicadas en la plataforma contra sus reporteros. Entre ellos se encuentran los periodistas birmanos Wa Lone y Kyaw Soe Oo, que están siendo juzgados en Myanmar acusados de violar una ley de secretos de Estado. Los dos fueron arrestados en diciembre mientras informaban sobre la masacre de 10 hombres rohingya y han recibido una avalancha de amenazas de muerte en las redes sociales por su historia. Facebook ha eliminado dicho contenido varias veces a pedido de la agencia de noticias. Myanmar salió de décadas de gobierno militar en 2011, pero la violencia religiosa ha empañado su transición a la democracia. En 2012, los enfrentamientos en el estado de Rakhine entre los rakhine étnicos, que son budistas, y los rohingya mataron a decenas de personas y dejaron a 140.000 desplazados, en su mayoría musulmanes. El extraordinario dominio de Facebook en Myanmar comenzó a echar raíces casi al mismo tiempo. Pero no por diseño. Hace apenas seis años, Myanmar era uno de los países menos conectados del mundo. En 2012, solo el 1,1 por ciento de la población usaba internet y pocas personas tenían teléfono, según la Unión Internacional de Telecomunicaciones, una agencia de la ONU. La junta que había gobernado el país durante décadas mantuvo a los ciudadanos aislados. Todo eso cambió en 2013, cuando un gobierno casi civil supervisó la desregulación de las telecomunicaciones. La compañía telefónica estatal se enfrentó repentinamente a la competencia de dos participantes extranjeros de teléfonos móviles de Noruega y Qatar. El precio de las tarjetas SIM bajó de más de $200 a tan solo $2 y la gente las compró en masa. Para 2016, casi la mitad de la población tenía suscripciones de telefonía móvil, según GSMA Intelligence, el brazo de investigación de la asociación comercial de la industria. La mayoría de los smartphones comprados con acceso a Internet. Una aplicación se volvió viral: Facebook. Muchos lo vieron como una solución todo en uno, que ofrece un sistema de mensajería, noticias, videos y otros entretenimientos. También se convirtió en un símbolo de estatus, dijo Chris Tun, ex consultor de Deloitte que asesoró al gobierno. “Si no usas Facebook, estás atrasado”, dijo. “Incluso las abuelas, todos estaban en Facebook”. Para captar clientes, los operadores de telefonía móvil de Myanmar comenzaron a ofrecer un buen trato: usar Facebook sin pagar ningún cargo de datos. “Facebook debería enviarme flores, porque hemos sido un acelerador para lograr la penetración”, dijo Lars Erik Tellmann, quien hasta julio fue director ejecutivo de Telenor Myanmar, parte del Grupo Telenor de Noruega. “Esta fue una iniciativa que tomamos por nuestra cuenta. Y esto fue extremadamente popular”. Hoy en Myanmar, el propio gobierno usa Facebook para hacer anuncios importantes, incluida la renuncia del presidente en marzo. “Genocidio de todos los musulmanes” En el otoño de 2013, Aela Callan, una documentalista australiana que estudiaba en la Universidad de Stanford, comenzó un proyecto sobre el discurso de odio y los informes falsos que se habían difundido en línea durante los conflictos entre budistas y musulmanes rohingya el año anterior. En junio de 2012, al menos 80 personas murieron en disturbios y miles de rohingya fueron trasladados a miserables campos de internamiento. Aparecieron diatribas anti-rohingya en Facebook. Un grupo nacionalista budista creó una página llamada “Banda de decapitación de Kalar”. En noviembre de 2013, se reunió en la sede de Facebook en California con Elliott Schrage, vicepresidente de comunicaciones y políticas públicas. “Estaba tratando de alertarlo sobre los problemas”, dijo. Los correos electrónicos entre los dos muestran que Schrage puso a Callan en contacto con internet.org, una iniciativa de Facebook para llevar Internet a los países en desarrollo, y con dos funcionarios de Facebook, incluido uno que trabajó con organizaciones de la sociedad civil para ayudar a la empresa a hacer frente al odio. discurso. “No me conectó con nadie dentro de Facebook que pudiera lidiar con el problema real”, dijo. Cuando se le pidió un comentario, Schrage remitió a Reuters a una persona de prensa en Facebook. La compañía no hizo comentarios sobre la reunión. Matt Schissler, estudiante de doctorado en la Universidad de Michigan, dijo que entre marzo y diciembre de 2014 mantuvo conversaciones con funcionarios de Facebook en una serie de llamadas y comunicaciones en línea. Les contó cómo se estaba utilizando la plataforma para difundir discursos de odio y rumores falsos en Myanmar, dijo, incluso a través de cuentas falsas. Él y otros activistas proporcionaron a la empresa ejemplos específicos, incluida una página de Facebook en birmano que se llamaba: “Genocidiaremos a todos los musulmanes y se los daremos de comer a los perros”. La página fue eliminada. Schissler pertenecía a un grupo privado de Facebook que se creó para que los activistas de derechos humanos de Myanmar, los investigadores y los empleados de la empresa, como el jefe de políticas de Asia Pacífico, Garlick, pudieran discutir cómo lidiar con el discurso de odio y otros problemas. Los activistas mencionaron numerosos problemas con el sistema de informes de varios pasos de Facebook para contenido problemático. Como ejemplo, citaron una fotografía de un trabajador humanitario en el estado de Rakhine en una publicación que lo llamaba “traidor a la nación”. Se había compartido 229 veces, según mensajes revisados por Reuters. Uno de los miembros del grupo privado lo había denunciado a Facebook como acoso a una persona, pero luego recibió un mensaje de respuesta: "Revisamos la foto que denunciaste por contener discursos o símbolos de odio y descubrimos que no viola nuestros Estándares comunitarios". Después de múltiples quejas de los activistas durante seis semanas, un empleado de Facebook finalmente les explicó que la solicitud de eliminación fue rechazada porque se había denunciado la foto, pero no el comentario anterior. Finalmente fue derribado. En marzo de 2015, Schissler dio una charla en la sede de Facebook en California sobre los nuevos medios, en particular Facebook, y la violencia contra los musulmanes en Myanmar. Asistieron más de una docena de empleados de Facebook, dijo. Dos meses después, Madden, el empresario tecnológico, dio una charla en la sede de Facebook sobre las tensiones y la violencia entre budistas y musulmanes. Dijo que mostró una imagen manipulada que se había difundido en Facebook de la líder de facto del país, Aung San Suu Kyi, que es budista, con un pañuelo musulmán en la cabeza. La imagen, dijo Madden, estaba destinada a implicar que simpatizaba con los musulmanes, un "mensaje muy negativo" en Myanmar. “El objetivo de esta presentación era simplemente hacer sonar la alarma, mostrar muy vívidamente el contexto en el que operaba Facebook, y ya la evidencia de cómo se estaba utilizando indebidamente”, dijo. Salió de la reunión pensando que su audiencia tomó la charla en serio y tomaría medidas. "Que el pueblo de Rakhine... y todos los ciudadanos de Myanmar estén libres de los peligros de los hijos de un perro, los nietos de un cerdo kalar y los violadores". Madden había fundado un centro tecnológico y un acelerador de empresas emergentes en Yangon llamado Phandeeyar. Dijo que él y otras personas involucradas en la empresa interactuaron con Facebook "muchas docenas" de veces durante los próximos años, incluso por correo electrónico, en el grupo privado de Facebook y en persona, lo que demuestra cómo los sistemas de la red para detectar y eliminar contenido peligroso eran ineficaces. . No está seguro de qué pasos tomó la compañía en respuesta. “El problema central es que los mecanismos que tienen para eliminar el discurso de odio de manera oportuna, antes de que cause daño al mundo real, no funcionan”, dijo. Madden y Jes Kaliebe Petersen, director ejecutivo de Phandeeyar, dijeron que Facebook todavía confiaba demasiado en su grupo y otros voluntarios para denunciar publicaciones peligrosas. “No debería incumbir a una organización como la nuestra o a personas que están bien conectadas con personas dentro de Facebook informar estas cosas”, dijo Petersen. En abril, poco antes del testimonio de Zuckerberg en el Senado, Phandeeyar y otros cinco grupos de Myanmar lo criticaron por afirmar en una entrevista con Vox que los sistemas de Facebook habían detectado y eliminado mensajes incendiarios en septiembre del año pasado. “Creemos que su sistema, en este caso, fuimos nosotros”, escribieron. Zuckerberg se disculpó. En 2014, las organizaciones tecnológicas y los investigadores no fueron los únicos que hicieron sonar las alarmas con Facebook. También el gobierno de Myanmar. En julio de ese año, estallaron disturbios en la ciudad central de Mandalay luego de que se difundieran falsos rumores en línea, en Facebook y en otros lugares, de que un hombre musulmán había violado a una mujer budista. Un hombre budista y un musulmán murieron en los combates. El gobierno de Myanmar le pidió a Tun, entonces consultor de Deloitte, que se pusiera en contacto con la empresa. Dijo que al principio no tuvo éxito y que el gobierno bloqueó brevemente Facebook. Tun dijo que eventualmente ayudó a organizar reuniones entre el gobierno y Facebook. “Lo que prometieron hacer fue, cuando detectas noticias falsas, puedes contactarlos por correo electrónico”, dijo Tun sobre Facebook. “Y tomarían medidas: estaban dispuestos a eliminar páginas después de su propio proceso de verificación”. El gobierno comenzó a informar casos a Facebook, pero Tun dijo que rápidamente se dio cuenta de que la empresa no podía manejar mensajes de texto en birmano. “Honestamente, Facebook no tenía ni idea sobre el contenido birmano. No estaban preparados en absoluto”, dijo. “Tuvimos que traducirlo al inglés para ellos”. 'No sé el idioma' En agosto de 2013, Zuckerberg anunció un plan para hacer que Internet esté disponible por primera vez para miles de millones de personas en países en desarrollo. “Todo lo que ha hecho Facebook ha consistido en dar a todas las personas de todo el mundo el poder de conectarse”, dijo. La compañía ahora trabajaría, agregó, para que “el acceso a Internet esté disponible para aquellos que actualmente no pueden pagarlo”. Pero en Myanmar, la barrera del idioma causaría problemas. La mayoría de la gente aquí no habla inglés. Aunque los usuarios de Myanmar en ese momento podían publicar en Facebook en birmano, la interfaz de la plataforma, incluido su sistema para informar publicaciones problemáticas, estaba en inglés. Para empeorar las cosas, la operación de la empresa para monitorear contenido en birmano era escasa. En 2014, el gigante de las redes sociales solo tenía un revisor de contenido que hablaba birmano: un contratista local en Dublín, según los mensajes enviados por los empleados de Facebook en el grupo de chat privado de Facebook. Un segundo hablante de birmano comenzó a trabajar a principios de 2015, según muestran los mensajes. En Manila, el sitio original del proyecto subcontratado Honey Badger, no había revisores de contenido que hablaran birmano. Las personas que revisaron el contenido de Myanmar allí hablaban inglés. “En casos como el discurso de odio en el que no entendíamos el idioma, decíamos: 'No sé el idioma'”, dijo una persona que trabajaba allí. “Entonces el cliente tuvo que resolver eso”, dijo la persona, refiriéndose a Facebook. En 2015, Facebook tenía alrededor de cuatro hablantes de birmano que revisaban el contenido de Myanmar en Manila y Dublín. Estaban al límite: ese año, Facebook tenía 7,3 millones de usuarios activos en Myanmar. Accenture comenzó a contratar lentamente a más hablantes de birmano. Con la ayuda de traductores voluntarios, Facebook también introdujo una interfaz en birmano. En 2016, el proyecto Honey Badger se había mudado a Kuala Lumpur después de que Accenture convenciera a Facebook de que sería más fácil reclutar birmanos y otros para trabajar en la capital de Malasia que en Manila, según una persona familiarizada con el asunto. En una torre de oficinas en Kuala Lumpur, se asignan equipos de monitores de contenido para manejar diferentes países asiáticos, no solo Myanmar. Se les paga alrededor de $ 850 a $ 1000 por mes y, a menudo, son empleados por agencias de empleo temporal, según los ex empleados y los anuncios de reclutamiento en línea. Facebook dijo en un comunicado: "Hemos elegido trabajar solo con socios globales de gran reputación que cuidan a sus empleados, les pagan bien y brindan beneficios sólidos, esto incluye a Accenture en Asia Pacífico". Un portavoz de Accenture confirmó que se asocia con Facebook. “La caracterización de nuestras operaciones como ‘secretas’ es engañosa y la confidencialidad se establece principalmente para proteger la privacidad y seguridad de nuestra gente y los clientes a los que servimos”, dijo el vocero. El hombre de comunicaciones Los ex monitores de contenido dijeron que a menudo cada uno tenía que emitir juicios sobre 1,000 o más elementos de contenido potencialmente problemáticos por día, aunque ahora se entiende que el número es menor. Las reglas completas de Facebook sobre lo que está y no está permitido en su plataforma se detallan en sus pautas internas de cumplimiento de estándares comunitarios, que la compañía hizo públicas por primera vez en abril. Define el discurso de odio como “discurso violento o deshumanizador, declaraciones de inferioridad o llamadas a la exclusión o segregación” contra las personas en función de su raza, etnia, afiliación religiosa y otras características. En respuesta, Facebook dijo: "Los revisores de contenido no están obligados a evaluar una cantidad determinada de publicaciones... Alentamos a los revisores a que se tomen el tiempo que necesiten". Un funcionario de Facebook también dijo a Reuters que la política de estándares de la comunidad es global, “pero hay matices locales”, como los insultos, que los revisores de contenido que son hablantes nativos pueden considerar al tomar decisiones. Pero ex monitores de contenido dijeron a Reuters que las reglas eran inconsistentes; a veces podían hacer excepciones ya veces no. Los ex monitores de contenido también dijeron que fueron entrenados para errar por el lado de mantener el contenido en Facebook. “La mayoría de las veces, tratas de darle al usuario el beneficio de la duda”, dijo un ex empleado de Facebook. Los exmonitores dijeron que a veces tenían tan solo unos segundos para decidir si una publicación constituía un discurso de odio o violaba los estándares de la comunidad de Facebook de alguna otra manera. Dijeron que en realidad no buscaron discursos de odio ellos mismos; en cambio, revisaron una cola gigante de publicaciones, en su mayoría reportadas por usuarios de Facebook. Muchos de los millones de artículos marcados a nivel mundial cada semana, incluidas diatribas violentas e imágenes sexuales espeluznantes, son detectados por sistemas automatizados, dice Facebook. Pero un funcionario de la compañía reconoció a Reuters que sus sistemas tienen dificultades para interpretar la escritura birmana debido a la forma en que las fuentes a menudo se representan en las pantallas de las computadoras, lo que dificulta la identificación de insultos raciales y otros discursos de odio. Los problemas de Facebook son evidentes en una nueva función que permite a los usuarios traducir contenido birmano al inglés. Considere una publicación que Reuters encontró en agosto del año pasado. En birmano, la publicación dice: “Maten a todos los kalars que vean en Myanmar; ninguno de ellos debería quedar vivo”. La traducción de Facebook al inglés: “No debería tener un arcoíris en Myanmar”. En respuesta, Facebook dijo: “Nuestro equipo de traducciones está trabajando activamente en nuevas formas de garantizar que las traducciones sean precisas”. La compañía dijo que usa un sistema diferente para detectar el discurso de odio. Guy Rosen, vicepresidente de gestión de productos, escribió en una publicación de blog en Facebook en mayo sobre los problemas que enfrentó la empresa para identificar el discurso de odio. “Nuestra tecnología aún no funciona tan bien, por lo que nuestros equipos de revisión deben verificarla”, escribió. Los funcionarios de Facebook dicen que no tienen planes inmediatos para contratar empleados en Myanmar. Pero la empresa contrata agencias locales para tareas no relacionadas con el monitoreo de contenido. Una es Echo Myanmar, una empresa de comunicaciones cuyo director gerente es Anthony Larmon, un estadounidense. Larmon ha expresado fuertes opiniones sobre los rohingya. Hacia fines de 2016, el ejército de Myanmar lanzó un ataque en unas 10 aldeas después de que los militantes rohingya atacaran los puestos fronterizos. En ese momento, un funcionario de la ONU acusó al gobierno de buscar una “limpieza étnica” de los rohingya. En noviembre de 2016, Larmon escribió que un artículo sobre la acusación de la ONU era “engañoso”. Citó lo que dijo que eran afirmaciones de varios "periodistas locales" de que la minoría étnica "exageraba (mentía) deliberadamente" su situación para "obtener más ayuda y atención extranjera". También escribió: “No, no se enfrentan a una limpieza étnica ni a nada remotamente parecido a lo que sugiere ese término incendiario”. Dijo que luego eliminó la publicación. Un portavoz de Facebook dijo que la publicación de Larmon “no representa la opinión de Facebook”. Larmon dijo a Reuters: “Fue un comentario demasiado emotivo y poco informado sobre un tema muy matizado del que me arrepiento. Mi opinión sobre los rohingya, igual hoy que entonces, es que deben ser repatriados y protegidos de manera segura”. ¿La plataforma en la que expresó sus puntos de vista sobre los rohingya? Facebook. Facebook no está solo Facebook no es la única plataforma de redes sociales que contiene discursos de odio contra los musulmanes rohingya. También ha proliferado en Twitter. En Myanmar, Twitter es mucho menos popular que Facebook. Pero después de que los insurgentes rohingya atacaran las estaciones de policía en agosto de 2017, lo que provocó una represión del ejército que obligó a 700.000 personas a abandonar sus hogares, cientos de nuevas cuentas de Twitter surgieron repentinamente en Myanmar. Muchos de los tuits en estas cuentas parecían ser intentos de contrarrestar las representaciones comprensivas de los rohingya por parte de los medios de comunicación occidentales y los activistas de derechos humanos. Retratan a la minoría étnica como inmigrantes ilegales del vecino Bangladesh, o “bengalíes”. Los miembros del grupo étnico se consideran nativos del estado de Rakhine en el oeste de Myanmar, pero el país les ha negado la ciudadanía a la mayoría. Algunos tuits de estas cuentas estaban en un inglés deficiente: “No hay rohingya en Myanmar, solo son inmigrantes ilegales y terroristas”. “Son originalmente bengalíes, inmigrantes ilegales y ladrones de tierras” Estos y otros tuits similares todavía se pueden encontrar en línea este mes. La "política de conducta odiosa" de Twitter prohíbe atacar a grupos de personas por motivos de raza, etnia u origen nacional, o participar en "comportamientos que inciten al miedo sobre un grupo protegido". Twitter eliminó una serie de tuits señalados por Reuters. Matthew Smith, cofundador de Fortify Rights, un grupo de derechos humanos con sede en el sudeste asiático, dijo que después de los ataques de los insurgentes rohingya en agosto del año pasado, notó que cuentas “sospechosas” lo seguían repentinamente en Twitter. Reuters analizó los nuevos seguidores de Twitter de Smith después de los ataques con la ayuda de dos servicios de análisis de Twitter, ExportTweet.com y Mentionmapp Analytics. El análisis mostró que más de 1200 de las nuevas cuentas de Twitter que siguen a Smith se crearon entre el 27 y el 31 de agosto, en el punto álgido de la represión militar contra los rohingya en el estado occidental de Rakhine. Una revisión de 564 de esas cuentas encontró que 349, o el 62 por ciento, eran anti-rohingya, según John Gray, cofundador de Mentionmapp. Mentionmapp no analizó los puntos de vista de las otras cuentas. Un informe de Mentionmapp encontró que la aparición de estas cuentas probablemente no fue automática, lo que significa que no eran bots, sino que parecía ser principalmente una campaña anti-rohingya "orquestada" de corta duración diseñada para parecerse a un movimiento de base. Treinta y uno por ciento de las 1239 cuentas nuevas dejaron de twittear a fines de septiembre y quedaron inactivas. Gray dijo que no podía “confirmar o determinar que hay una organización/operador central detrás de todo el comportamiento”. El informe de Mentionmapp también declaró: “Es justo decir que Facebook no fue el único hogar del 'discurso de odio' dirigido a los rohingya. ”

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd