Incidentes Asociados
NUEVA YORK/AMMAN (Fundación Thomson Reuters) - Desde bombardeos y protestas hasta la apertura de un nuevo centro de salud, el estudiante periodista Baraa Razzouk ha estado documentando la vida cotidiana en Idlib, Siria, durante años, y publicando videos en su cuenta de YouTube.
Pero este mes, el joven de 21 años comenzó a recibir correos electrónicos automáticos de YouTube alertándole que sus videos violaban su política y que serían eliminados. Hasta este mes, más de una docena de sus videos habían sido eliminados, dijo.
"Documentar las protestas (sirias) en vídeos es realmente importante. También documentar los ataques de las fuerzas del régimen", dijo a la Fundación Thomson Reuters en una entrevista telefónica. "Esto es algo que había documentado para el mundo y ahora está eliminado".
YouTube, Facebook y Twitter advirtieron en marzo que los vídeos y otros contenidos podrían eliminarse por error por infracciones de políticas, ya que la pandemia de coronavirus los obligó a vaciar oficinas y depender de software de eliminación automatizado.
Pero esas herramientas habilitadas con inteligencia artificial corren el riesgo de confundir la documentación histórica y de derechos humanos, como los videos de Razzouk, con material problemático como contenido terrorista, particularmente en países devastados por la guerra como Siria y Yemen, advirtieron activistas de derechos digitales.
"La IA es notoriamente ciega al contexto", dijo Jeff Deutch, investigador de Syria Archive, una organización sin fines de lucro que archiva videos de zonas de conflicto en Medio Oriente.
"A menudo es incapaz de evaluar la configuración histórica, política o lingüística de los puestos... la documentación de derechos humanos y las propuestas extremistas violentas son muy a menudo indistinguibles", dijo en una entrevista telefónica.
Las eliminaciones erróneas amenazan contenidos como vídeos que se utilizan como prueba formal de violaciones de derechos por parte de organismos internacionales como la Corte Penal Internacional y las Naciones Unidas, dijo Dia Kayyali, del grupo de derechos digitales Witness.
"Es una tormenta perfecta", dijo el coordinador de tecnología y defensa.
Después de que la Fundación Thomson Reuters marcó la cuenta de Razzouk en YouTube, un portavoz dijo que la compañía había eliminado los videos por error, aunque la eliminación no fue apelada a través de su proceso interno. Ya han restaurado 17 de los vídeos de Razzouk.
"Con el enorme volumen de vídeos en nuestro sitio, a veces tomamos la decisión equivocada", dijo el portavoz en comentarios enviados por correo electrónico. "Cuando nos enteramos de que un vídeo se ha eliminado por error, actuamos rápidamente para restablecerlo".
DERRIBAR
En los últimos años, las plataformas de redes sociales se han visto sometidas a una mayor presión por parte de los gobiernos para eliminar rápidamente el contenido violento y la desinformación de sus plataformas, lo que aumenta su dependencia de los sistemas de inteligencia artificial.
Con la ayuda de software automatizado, YouTube elimina millones de vídeos al año y Facebook eliminó más de mil millones de cuentas el año pasado por violar reglas como publicar contenido terrorista.
El año pasado, las empresas de redes sociales se comprometieron a bloquear el contenido extremista luego de un ataque terrorista transmitido en vivo en Facebook en el que un hombre armado mató a 51 personas en dos mezquitas en Christchurch, Nueva Zelanda.
Los gobiernos han hecho lo mismo, y el presidente francés, Emmanuel Macron, prometió convertir a Francia en un líder en la contención de la difusión de contenidos ilícitos e información falsa en las plataformas de redes sociales.
Pero el tribunal superior del país rechazó esta semana la mayor parte de un proyecto de ley que habría obligado a los gigantes de las redes sociales a eliminar cualquier contenido de odio en un plazo de 24 horas.
Empresas como Facebook también se han comprometido a eliminar la información errónea sobre el brote de coronavirus que podría contribuir a un daño físico inminente.
Estas presiones, combinadas con una mayor dependencia de la IA durante la pandemia, ponen en particular peligro el contenido de derechos humanos, afirmó Kayyali.
SEGUIMIENTO DE CONTENIDO
Las empresas de redes sociales normalmente no revelan con qué frecuencia sus herramientas de inteligencia artificial eliminan contenido por error.
Por eso, el grupo Archivo Sirio ha estado utilizando sus propios datos para aproximar los cambios a lo largo del tiempo en la tasa de eliminación de documentación de derechos humanos sobre crímenes cometidos en Siria, que ha sido golpeada por casi una década de guerra.
El grupo marca cuentas que publican contenido sobre derechos humanos en plataformas de redes sociales y archiva las publicaciones en sus servidores. Para aproximar la tasa de eliminaciones, ejecutan un script que hace ping a la publicación original cada mes para ver si se ha eliminado.
"Nuestra investigación sugiere que desde principios de año, la tasa de eliminación de contenidos de documentación sobre derechos humanos sirios en YouTube aproximadamente se duplicó (del 13% al 20%)", dijo Deutch, calificando el aumento como "sin precedentes".
En mayo, el Archivo Sirio detectó que más de 350.000 vídeos de YouTube habían desaparecido, frente a los 200.000 de mayo de 2019, incluidos vídeos de ataques aéreos, protestas y destrucción de viviendas de civiles en Siria.
Deutch dijo que había visto eliminaciones de contenido en otros países de la región devastados por la guerra, incluidos Yemen y Sudán. "Los usuarios en zonas de conflicto son más vulnerables", afirmó.
Otros grupos, incluidos Amnistía Internacional y Witness, han advertido sobre la tendencia en otros lugares, incluido el África subsahariana.
Syria Archive no pudo realizar pruebas de eliminación en Facebook, porque los investigadores externos tienen restringido el acceso a la interfaz de programación de aplicaciones (API) de la plataforma.
Pero a principios de este mes los sirios comenzaron a usar el hashtag "Facebook está luchando contra la revolución Syran" para señalar la eliminación de contenidos similares en la plataforma.
El mes pasado, Yahya Daoud, un trabajador humanitario sirio del grupo de respuesta de emergencia Cascos Blancos, compartió una publicación y una fotografía que muestra a una mujer que murió en una masacre de 2012 perpetrada por las fuerzas del presidente sirio Bashar al-Assad en la región de Houla.
A finales de mes, Daoud dijo que su cuenta, que había utilizado desde 2011 para documentar su vida en Siria, fue eliminada automáticamente sin explicación. "Dependía de Facebook para que fuera un archivo para mí", dijo.
"Se han perdido tantos recuerdos: la muerte de mis amigos, el día que fui desplazado, la muerte de mi madre", dijo, añadiendo que había intentado sin éxito apelar la decisión a través del sistema automatizado de quejas de Facebook.
Facebook no respondió a las solicitudes de comentarios.
'NO LOS ESTAMOS ESCUCHANDO'
Los investigadores dicen que solo pueden detectar una pequeña porción de eliminación de contenido erróneo.
"No sabemos cuántas personas están intentando hablar y no las escuchamos", dijo Alexa Koenig, directora del Centro de Derechos Humanos de la Universidad de California Berkeley.
"Estos algoritmos capturan el contenido incluso antes de que lo veamos", dijo Koenig, cuyo centro utiliza imágenes y videos publicados en zonas de conflicto como Siria para documentar abusos a los derechos humanos y construir casos.
YouTube dijo que el 80% de los videos marcados por su IA fueron eliminados antes de que alguien los viera en el segundo trimestre de 2019.
Eso preocupa a Koenig, a quien le preocupa que la eliminación de estos vídeos pueda poner en peligro las investigaciones en curso en todo el mundo.
En 2017, la Corte Penal Internacional emitió su primera orden de arresto que se basó principalmente en pruebas de las redes sociales, luego de que apareciera en Facebook un video del comandante libio Mahmoud al-Werfalli.
El vídeo supuestamente lo mostraba matando a tiros a 10 prisioneros con los ojos vendados en el lugar de un atentado con coche bomba en Bengasi. Todavía está prófugo.
A Koenig le preocupa que este tipo de documentación esté ahora amenazada: "El peligro es mucho mayor que hace unos meses", afirma.
"Es una sensación repugnante saber que no estamos cerca de donde necesitamos estar para preservar este contenido".