Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1849

Incidentes Asociados

Incidente 2684 Reportes
Permanent Removal of Social Media Content via Automated Tools Allegedly Prevented Investigative Efforts

Loading...
Plataformas de redes sociales eliminan pruebas de crímenes de guerra
hrw.org · 2020

Las plataformas de redes sociales están eliminando contenido en línea que consideran terrorista, violentamente extremista u odioso de una manera que impide su posible uso para investigar delitos graves, incluidos los crímenes de guerra, señaló Human Rights Watch en un informe publicado hoy. Si bien es comprensible que estas plataformas eliminen contenido que incite o promueva la violencia, deben asegurarse de que este material se archive para que pueda usarse para pedir cuentas a los responsables.

El informe de 42 páginas, "'Video no disponible': las plataformas de redes sociales eliminan evidencia de crímenes de guerra", insta a todas las partes interesadas, incluidas las plataformas de redes sociales, a acudir juntos para desarrollar un mecanismo independiente para preservar evidencia potencial de delitos graves. Deben asegurarse de que el contenido esté disponible para apoyar las investigaciones nacionales e internacionales, así como la investigación de organizaciones no gubernamentales, periodistas y académicos. Los grupos de derechos han estado [urgiendo](https ://www.hrw.org/news/2020/07/30/joint-letter-new-executive-director-global-internet-forum-counter-terrorism) empresas de redes sociales desde 2017 para [mejorar la transparencia] (https: //cdt.org/insights/takedown-collaboration-by-private-companies-creates-troubling-precedent/) y [rendición de cuentas](https://blog.witness.org/2020/07/witness-joins-14- organizaciones-para-urgir-regalo-para-respetar-los-derechos-humanos/) en torno a eliminación de contenido.

“Parte del contenido que Facebook, YouTube y otras plataformas están eliminando tiene un valor crucial e insustituible como prueba de las atrocidades contra los derechos humanos”, dijo [Belkis Wille](https://www.hrw.org/about/people/belkis -wille), investigador principal de crisis y conflictos de Human Rights Watch. “Dado que los fiscales, investigadores y periodistas confían cada vez más en fotografías y videos publicados públicamente en las redes sociales, estas plataformas deberían hacer más para garantizar que puedan tener acceso a evidencia potencial de delitos graves”.

El contenido de las redes sociales, en particular fotografías y videos, publicado por perpetradores, víctimas y testigos de abusos, se ha vuelto cada vez más central para algunos [enjuiciamientos de crímenes de guerra] (https://english.alaraby.co.uk/english/fullimage/eff18e9b -7920-4da1-9f9f-e242fc02290f/e59adf51-6a6d-408f-b10b-8573ab87d8e0) y otros delitos graves, incluso en la [Corte Penal Internacional (CPI)] (http://opiniojuris.org/2017/08/17/ y así comienza la evidencia en las redes sociales en una orden de arresto de la CPI/) y [procedimientos nacionales] (https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA :2019:10647) en Europa. Este contenido también ayuda a los medios y a la [sociedad civil](https://theintercept .com/2017/11/02/war-crimes-youtube-facebook-syria-rohingya/) documentan atrocidades y otros abusos, como [ataques] con armas químicas (https://www.hrw.org/news/2018 /04/04/syria-year-chemical-weapons-attacks-persist) en Siria, una fuerza de seguridad [represión](https://www.hrw.org/report/2019/11/18/they-were-shouting -kill-them/sudans-violent-crackdown-protesters-khartoum) en Sudán, y [abuso] policial (https://www.hrw.org/news/2020/06/17/police-targeting-street-medics- nosotros-protestas) en los Estados Unidos.

Para este informe, Human Rights Watch entrevistó a siete personas que trabajan en organizaciones de la sociedad civil, tres abogados, dos archivistas, un estadístico, dos periodistas, un exfiscal con experiencia en tribunales internacionales, cinco personas en investigaciones bajo mandato internacional, tres funcionarios encargados de hacer cumplir la ley a nivel nacional , un funcionario de la Unión Europea y un miembro del Parlamento Europeo. También revisó el contenido de Facebook, Twitter y YouTube que Human Rights Watch ha citado en sus informes para respaldar las denuncias de abuso desde 2007. De un total de 5396 piezas de contenido mencionadas en 4739 informes, la gran mayoría de los cuales se publicaron en los últimos cinco años. -, encontró que 619 (o el 11 por ciento) habían sido eliminados. En cartas a Facebook, Twitter y Google enviadas en mayo de 2020, Human Rights Watch compartió los enlaces a este contenido que se había eliminado y preguntó a las empresas si Human Rights Watch podía recuperar el acceso con fines de archivo, solicitud que no fue concedida. En los últimos años, las empresas de redes sociales, incluidas Facebook, YouTube y Twitter, han intensificado sus esfuerzos para desconectar las publicaciones de sus plataformas que consideran que violan sus reglas, pautas comunitarias o estándares de acuerdo con sus términos de servicio. Esto incluye contenido que consideren terrorista o extremista violento, discurso de odio, odio organizado, conducta odiosa y amenazas violentas.

Las empresas eliminan las publicaciones que los usuarios marcan y [los moderadores de contenido] (https://techcrunch.com/2020/05/12/facebook-moderators-ptsd-settlement/) revisan. Pero cada vez más también usan algoritmos para identificar y eliminar publicaciones ofensivas, en algunos casos tan rápido que nadie el usuario ve el contenido antes de eliminarlo. Los gobiernos de todo el mundo han alentado esta tendencia y han pedido a las empresas que eliminen el contenido peligroso tan pronto como sea posible. No está claro si las empresas de redes sociales almacenan varios tipos de contenido que [eliminan] (https://about.fb.com/news/2018/11/myanmar-hria/) o bloquean de sus sitios, ni por cuánto tiempo.

Las empresas tienen razón al desconectar de inmediato el contenido que podría incitar a la violencia, dañar a las personas o poner en peligro la seguridad nacional o el orden público, siempre que las normas que aplican se ajusten a los derechos humanos internacionales y los principios del debido proceso. Sin embargo, la eliminación permanente de dicho contenido puede volverlo inaccesible y obstaculizar importantes esfuerzos de responsabilidad penal.

Todavía no existe ningún mecanismo para preservar y archivar las eliminaciones de redes sociales que podrían proporcionar evidencia crucial de abusos, y mucho menos para garantizar el acceso de quienes investigan crímenes internacionales. En la mayoría de los países, los funcionarios encargados de hacer cumplir la ley pueden obligar a las empresas de redes sociales a entregar el contenido mediante el uso de órdenes judiciales, citaciones y órdenes judiciales. órdenes, pero los investigadores internacionales tienen una capacidad limitada para acceder al contenido porque carecen de poderes y capacidad para hacer cumplir la ley.

Las organizaciones independientes y los periodistas han desempeñado un papel fundamental en la documentación de atrocidades en todo el mundo, a menudo cuando no había órganos judiciales que realizaran investigaciones. En algunos casos, esta documentación ha desencadenado [procedimientos judiciales](https://www.theguardian.com/law/2019/jun/20/uk-arms-sales-to-saudi-arabia-for-use-in-yemen -declarado-antijurídico). Sin embargo, tampoco tienen la capacidad de acceder al contenido eliminado y, al igual que los investigadores oficiales, no recibirán un aviso de la eliminación de los sistemas de inteligencia artificial antes de que alguien lo vea.

Un agente de la ley europeo que investiga crímenes de guerra dijo a Human Rights Watch que “el contenido que se retira se ha convertido en una parte diaria de mi experiencia laboral. Constantemente me enfrento a posibles pruebas cruciales a las que ya no tengo acceso”. Hacer que las personas rindan cuentas por delitos graves puede ayudar a disuadir futuras violaciones y promover el respeto por el estado de derecho, dijo Human Rights Watch. Los esfuerzos de la justicia penal también pueden ayudar a restaurar la dignidad de las víctimas al reconocer su sufrimiento y ayudar a crear un registro histórico que proteja contra el revisionismo de aquellos que niegan que hayan ocurrido atrocidades. El derecho internacional obliga a los países a procesar el genocidio, los crímenes de lesa humanidad y los crímenes de guerra. Es vital que las empresas de redes sociales y todas las partes interesadas relevantes desarrollen conjuntamente un plan para establecer un mecanismo independiente que asuma el papel de enlace con las plataformas de redes sociales y para preservar este contenido. El archivo debe ser responsable de clasificar y otorgar acceso al contenido con fines de investigación e investigación, de acuerdo con los derechos humanos y los estándares de privacidad de datos.

Paralelamente a estos esfuerzos, las plataformas de redes sociales deberían ser más transparentes sobre sus procedimientos de eliminación existentes, incluso mediante un mayor uso de algoritmos, señaló Human Rights Watch. Deben asegurarse de que sus propios sistemas no sean [demasiado amplios](https://www.reuters.com/article/us-global-socialmedia-rights-trfn/lost-memories-war-crimes-evidence-threatened-by- ai-moderation-idUSKBN23Q2TO) o parcial y que brindan oportunidades significativas para apelar la eliminación de contenido.

“Apreciamos que la tarea que enfrentan las empresas de redes sociales no es fácil, incluido lograr el equilibrio adecuado entre proteger la libertad de expresión y la privacidad, y eliminar contenido que puede causar daños graves”, dijo Wille. “Las consultas que se basan en las experiencias de otros archivos históricos podrían conducir a un verdadero avance y ayudar a las plataformas a proteger la libertad de expresión y la seguridad pública, al tiempo que garantizan que los esfuerzos de rendición de cuentas no se vean obstaculizados”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd