Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2988

Incidentes Asociados

Incidente 1695 Reportes
Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

Loading...
Olvídese de Washington. Los problemas de Facebook en el extranjero son mucho más inquietantes
nytimes.com · 2017

Durante meses, la sede de Facebook en Menlo Park, California, ha estado en crisis, intentando furiosamente contener el daño derivado de su papel en la campaña presidencial del año pasado. La compañía montó una campaña de defensa total antes de [las audiencias del Congreso de esta semana sobre la interferencia electoral] (https://www.nytimes.com/2017/10/20/technology/meet-the-men-who-will- defend-google-facebook-and-twitter-before-lawmakers.html) en 2016, contrató a tres empresas de comunicaciones externas y sacó [anuncios de periódico de página completa] (http://fortune.com/2017/10/04/facebook -full-page-ad-new-york-times/), y movilizando a altos ejecutivos, incluidos Mark Zuckerberg y Sheryl Sandberg, para rechazar las acusaciones de que no logró evitar que Rusia manipulara el resultado de las elecciones.

Ningún otro problema en los 13 años de historia de Facebook ha generado este tipo de respuesta de cuatro alarmas. Pero si bien el enfoque en Rusia es comprensible, Facebook se ha expresado mucho menos sobre el abuso de sus servicios en otras partes del mundo, donde lo que está en juego puede ser mucho mayor que una elección.

La semana pasada, mis colegas de The Times informaron sobre la limpieza de los musulmanes rohingya, una minoría étnica en Myanmar que ha sido objeto de violencia brutal y desplazamiento masivo. La violencia contra los rohingya ha sido alimentada, en parte, por la desinformación y la propaganda anti-rohingya difundida en Facebook, que muchas personas en el país utilizan como fuente principal de noticias. Las fotos manipuladas y los rumores infundados [se han vuelto virales](https://www.buzzfeed.com/meghara/how-fake-news-and-online-hate-are-making-life-hell-for?utm_term=.shpWBL5O7# .wlGyPB4gk) en Facebook, incluidos muchos compartidos por cuentas gubernamentales y militares oficiales.

La guerra de la información en Myanmar ilumina un problema creciente para Facebook. La empresa conectó con éxito al mundo a una constelación de herramientas de transmisión y comunicación en tiempo real, y luego lo dejó en gran medida a cargo de las consecuencias.

“En muchos de estos países, Facebook es la plaza pública de facto”, dijo Cynthia Wong, investigadora principal de Internet de Human Rights Watch. “Debido a eso, plantea preguntas realmente fuertes sobre la necesidad de Facebook de asumir una mayor responsabilidad por los daños a los que ha contribuido su plataforma”.

En Myanmar, el aumento del sentimiento anti-rohingya coincidió con un gran auge en el uso de las redes sociales atribuible en parte al propio Facebook. En 2016, la empresa se asoció con MPT, la empresa estatal de telecomunicaciones, para dar a los suscriptores acceso a su programa Free Basics. Free Basics incluye un conjunto limitado de servicios de Internet, incluido Facebook, que se puede usar sin contar para un plan de datos de teléfono celular. Como resultado, el número de usuarios de Facebook en Myanmar se ha disparado a más de 30 millones en la actualidad desde los 2 millones de 2014.

“Trabajamos arduamente para educar a las personas sobre nuestros servicios, destacar las herramientas para ayudarlos a proteger sus cuentas y promover la alfabetización digital”, dijo Debbie Frost, vocera de Facebook. “Para ser más efectivos en estos esfuerzos, estamos trabajando con la sociedad civil, los socios de seguridad y los gobiernos, un enfoque que consideramos particularmente importante y efectivo en países donde las personas se conectan rápidamente y experimentan Internet por primera vez a través de Internet. un celular."

En India, donde el uso de Internet también aumentó en los últimos años, WhatsApp, la popular aplicación de mensajería propiedad de Facebook, se ha visto [inundada de rumores, engaños e historias falsas] (https://www.washingtonpost.com/world/asia_pacific/ indias-millones-de-nuevos-usuarios-de-internet-están-enamorándose-de-noticias-falsas—a veces-con-consecuencias-mortales/2017/10/01/f078eaee-9f7f-11e7-8ed4-a750b67c552b_story.html?utm_term= .d2317b71eac3). En mayo, la región de Jharkhand, en el este de la India, se desestabilizó por un mensaje viral de WhatsApp que afirmaba falsamente que las bandas de la zona estaban secuestrando niños. El mensaje provocó un pánico generalizado y provocó una serie de linchamientos en represalia, en los que al menos siete personas fueron muertas a golpes. Un cineasta local, Vinay Purty, le dijo al [Hindustan Times](http://www.hindustantimes.com/india-news/a-whatsapp-message-claimed-nine-lives-in-jharkhand-in-a-week/ story-xZsIlwFawf82o5WTs8nhVL.html) que muchos de los aldeanos locales simplemente creían que el mito del secuestro era real, ya que provenía de WhatsApp.

“Todo lo que se comparte por teléfono se considera cierto”, dijo Purty.

En un comunicado, WhatsApp dijo: “WhatsApp ha hecho que las comunicaciones sean más baratas, fáciles y confiables para millones de indios, con todos los beneficios que eso conlleva. Aunque entendemos que, lamentablemente, algunas personas han usado WhatsApp para intimidar a otros y difundir información errónea. Es por eso que alentamos a las personas a reportar mensajes problemáticos a WhatsApp para que podamos tomar medidas”.

Facebook no es directamente responsable de los conflictos violentos, por supuesto, y la desinformación viral no es exclusiva de sus servicios. Antes de las redes sociales, había engaños por correo electrónico y leyendas urbanas que se transmitían de persona a persona. Pero la velocidad del crecimiento de Facebook en el mundo en desarrollo lo ha convertido en una fuerza especialmente potente entre los usuarios de Internet por primera vez, quienes pueden no ser debidamente escépticos de lo que ven en línea.

La empresa ha hecho muchos intentos de educar a los usuarios sobre los peligros de la desinformación. En India y Malasia, ha sacado anuncios de periódicos con consejos por detectar noticias falsas. En Myanmar, se asoció con organizaciones locales para distribuir copias impresas de sus estándares comunitarios, y también creó [materiales educativos](https://www.facebook.com/fbsafety/photos/a.197686146935898.42079.125459124158601/912369255467580/? type=3&theater) para enseñar a los ciudadanos sobre el comportamiento adecuado en línea.

Pero estos esfuerzos, por bien intencionados que sean, no han detenido la violencia, y Facebook no parece haberlos convertido en una prioridad principal. La empresa no tiene oficina en Myanmar, y ni Zuckerberg ni Sandberg han hecho declaraciones públicas sobre la crisis de los rohingya.

Corregir la desinformación es un problema filosófico espinoso para Facebook, que se imagina a sí mismo como una plataforma neutral que evita toma de decisiones editoriales. Los estándares de la comunidad de Facebook prohíben el discurso de odio y las amenazas, pero muchas publicaciones virales dañinas, como un hilo de WhatsApp en el sur de la India que [difundió rumores falsos] (https://scroll.in/pulse/830129/rumores-sobre-sarampión-rubeola- cobertura de vacunas) sobre una campaña de inmunización del gobierno, no son odiosos ni amenazantes directamente, y no estarían prohibidos según los estándares de la comunidad de Facebook siempre que provengan de cuentas auténticas. La lucha contra la desinformación es especialmente difícil en WhatsApp, una aplicación de mensajería privada, ya que no hay rastro de información pública para verificar.

Facebook ha argumentado que los beneficios de brindar acceso a Internet a usuarios internacionales finalmente superarán los costos. Adam Mosseri, vicepresidente de Facebook que supervisa la sección de noticias, [dijo en una reunión de periodistas] (http://money.cnn.com/2017/10/24/technology/business/facebook-adam-mosseri/index.html) este mes, "Al final, no creo que nosotros, como raza humana, nos arrepintamos de Internet". El Sr. Zuckerberg se hizo eco de ese sentimiento en un manifiesto de 2013 titulado “¿Es la conectividad un derecho humano?” en el que dijo que poner a la población mundial en línea sería “uno de los las cosas más importantes que todos hacemos en nuestras vidas.”

Ese optimismo puede ser un frío consuelo para las personas en lugares como Sudán del Sur. A pesar de ser uno de los países más pobres y menos conectados del mundo, con solo alrededor del 20 por ciento de sus ciudadanos conectados a Internet, la nación africana se ha convertido en un semillero de desinformación en las redes sociales. Como [ha informado BuzzFeed News](https://www.buzzfeed.com/jasonpatinkin/how-to-get-people-to-murder-each-other-through-fake-news-and?utm_term=.qjlvXQ74B#. bnV6XO9a0), operadores políticos dentro y fuera del país han utilizado publicaciones de Facebook para difundir rumores e incitar la ira entre facciones rivales, fomentando la violencia que amenaza con convertirse en una guerra civil. Un [informe] de las Naciones Unidas (http://www.securitycouncilreport.org/atf/cf/%7B65BFCF9B-6D27-4E9C-8CD3-CF6E4FF96FF9%7D/s_2016_963.pdf) el año pasado determinó que en Sudán del Sur, “las redes sociales han ha sido utilizado por partisanos de todos los lados, incluidos algunos altos funcionarios del gobierno, para exagerar incidentes, difundir falsedades y amenazas veladas, o publicar mensajes directos de incitación”.

Estos son problemas increíblemente complejos y puede ser imposible para Facebook, que es, recuerde, una empresa de tecnología, no una fuerza de mantenimiento de la paz mundial, resolverlos de la noche a la mañana. Pero como ha demostrado la respuesta de la empresa a la crisis de Rusia, es capaz de actuar con rapidez y eficacia cuando siente que sus intereses están amenazados.

Las guerras de información en los mercados emergentes pueden no representar una amenaza tan grande para el negocio de Facebook como los enojados legisladores en Washington. Pero la gente está muriendo y las comunidades se están destrozando con las herramientas que ha creado Facebook. Eso debería calificar como una emergencia aún mayor en Menlo Park.

Se hizo una corrección el 31 de octubre de 2017: un artículo del lunes sobre los abusos de los servicios de Facebook en varios países tradujo incorrectamente el nombre de una empresa de telecomunicaciones administrada por el gobierno en Myanmar. Es MPT, no MTP.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd