Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1929

Incidentes Asociados

Incidente 2684 Reportes
Permanent Removal of Social Media Content via Automated Tools Allegedly Prevented Investigative Efforts

Loading...
“Vídeo no disponible”
hrw.org · 2020

En los últimos años, las plataformas de redes sociales han eliminado contenido en línea con mayor frecuencia y rapidez, a menudo en respuesta a las demandas de los gobiernos, pero de una manera que impide el uso de ese contenido para investigar a personas sospechosas de estar involucradas en delitos graves, incluidos crímenes de guerra. Si bien es comprensible que estas plataformas eliminen contenido que incite o promueva la violencia, actualmente no están archivando este material de una manera que sea accesible para los investigadores e investigadores para ayudar a que los perpetradores rindan cuentas.

El contenido de las redes sociales, en particular fotografías y videos, publicado por perpetradores, víctimas y testigos de abusos, entre otros, se ha vuelto cada vez más central para algunos enjuiciamientos de crímenes de guerra y otros crímenes internacionales, incluso en la Corte Penal Internacional (CPI) y en procedimientos nacionales en Europa. Este contenido también ayuda a los medios y a la sociedad civil a documentar atrocidades y otros abusos, como los ataques con armas químicas en Siria, la represión de las fuerzas de seguridad en Sudán y el abuso policial en los Estados Unidos.

Sin embargo, las empresas de redes sociales han intensificado sus esfuerzos para eliminar de forma permanente las publicaciones de sus plataformas que consideran que violan sus reglas, o las pautas o estándares de la comunidad de acuerdo con sus términos de servicio, incluido el contenido que consideran "contenido terrorista y extremista violento" (TVEC) , discurso de odio, odio organizado, conducta odiosa y amenazas violentas. Según las empresas, no solo eliminan el material que los moderadores de contenido clasifican para su eliminación. Cada vez más, también usan algoritmos para identificar y eliminar contenido tan rápido que ningún usuario lo ve antes de que se elimine. Además, algunas plataformas tienen filtros para evitar que contenido identificado como TVEC y otro contenido relevante se cargue en primer lugar. Los gobiernos de todo el mundo han alentado esta tendencia, pidiendo a las empresas que eliminen el contenido lo más rápido posible, particularmente desde marzo de 2019, cuando un hombre armado transmitió en vivo su ataque a dos mezquitas en Christchurch, Nueva Zelanda, que mató a 51 personas e hirió a otras 49.

Las empresas tienen razón al eliminar de inmediato el contenido que podría incitar a la violencia, dañar a las personas o poner en peligro la seguridad nacional o el orden público. Pero las empresas de redes sociales no han logrado establecer mecanismos para garantizar que el contenido que eliminan se conserve, archive y esté disponible para los investigadores criminales internacionales. En la mayoría de los países, los funcionarios nacionales encargados de hacer cumplir la ley pueden obligar a las empresas a entregar el contenido mediante el uso de órdenes judiciales, citaciones y órdenes judiciales, pero los investigadores internacionales tienen una capacidad limitada para acceder al contenido porque carecen de poderes y capacidad para hacer cumplir la ley.

También es probable que los agentes del orden público y otros pierdan información y pruebas importantes que tradicionalmente habrían sido de dominio público porque los sistemas de inteligencia artificial cada vez más sofisticados están eliminando contenido antes de que cualquiera de ellos tenga la oportunidad de verlo o incluso saber que existe. . No hay forma de saber cuánta evidencia potencial de delitos graves está desapareciendo sin el conocimiento de nadie.

Las organizaciones independientes de la sociedad civil y los periodistas han desempeñado un papel vital en la documentación de atrocidades en Irak, Myanmar, Siria, Yemen, Sudán, Estados Unidos y otros lugares, a menudo cuando no había actores judiciales que realizaran investigaciones. En algunos casos, la documentación de organizaciones y medios de comunicación ha desencadenado procesos judiciales posteriores. Sin embargo, tampoco tienen la capacidad de acceder al contenido eliminado. El acceso a este contenido por parte del público debe estar sujeto a una consideración cuidadosa, y la eliminación puede ser apropiada en algunos casos. Pero cuando el contenido se elimina de forma permanente y los investigadores no tienen forma de acceder a él, esto podría obstaculizar importantes esfuerzos de rendición de cuentas.

Las empresas han respondido a algunas solicitudes de acceso a contenido de la sociedad civil, ya sea reconsiderando su eliminación y volviendo a publicarlo, o diciendo que es ilegal que compartan el contenido con cualquier persona. Human Rights Watch no tiene conocimiento de ningún caso en el que las empresas hayan acordado brindar a la sociedad civil independiente ya los periodistas acceso a dicho contenido si no se vuelve a publicar.

No está claro cuánto tiempo guardan las empresas de redes sociales el contenido que eliminan de sus plataformas antes de eliminarlo de sus servidores o incluso si el contenido, de hecho, alguna vez se elimina de sus servidores. Facebook afirma que, al recibir una solicitud válida, conservará el contenido durante 90 días después de su eliminación, "en espera de que recibamos [un] proceso legal formal". Sin embargo, Human Rights Watch sabe de instancias en las que Facebook ha retenido en sus servidores contenido eliminado por períodos mucho más largos que 90 días después de la eliminación. En un correo electrónico a Human Rights Watch el 13 de agosto, un representante de Facebook dijo: “Debido a las restricciones legislativas sobre la retención de datos, solo podemos retener el contenido durante un cierto período de tiempo antes de eliminarlo de nuestros servidores. Este límite de tiempo varía según el tipo de abuso... se puede solicitar la retención de estos datos por cualquier período adicional a través de una solicitud de preservación de las fuerzas del orden”.

En un correo electrónico a Human Rights Watch el 4 de agosto, Twitter dijo que "retiene diferentes tipos de información durante diferentes períodos de tiempo y de acuerdo con nuestros Términos de servicio y Política de privacidad". En al menos un caso del que tiene conocimiento Human Rights Watch, YouTube restauró contenido dos años después de haberlo eliminado.

Hacer que las personas rindan cuentas por delitos graves puede ayudar a disuadir futuras violaciones y promover el respeto por el estado de derecho. La justicia penal también ayuda a restaurar la dignidad de las víctimas al reconocer su sufrimiento y ayudar a crear un registro histórico que protege contra el revisionismo de aquellos que intentarán negar que ocurrieron atrocidades.

Sin embargo, tanto a nivel nacional como internacional, las víctimas de delitos graves a menudo se enfrentan a una ardua batalla cuando buscan la rendición de cuentas, especialmente durante situaciones de conflicto en curso. Las investigaciones criminales a veces comienzan años después de que se cometieron los presuntos abusos. Es probable que en el momento en que se lleven a cabo estas investigaciones, el contenido de las redes sociales con valor probatorio se habrá eliminado mucho antes, lo que hace que la preservación adecuada de este contenido, de acuerdo con los estándares que se aceptarían en los tribunales, sea aún más importante.

El derecho internacional obliga a los países a procesar el genocidio, los crímenes de lesa humanidad y los crímenes de guerra. En consonancia con un grupo de organizaciones de la sociedad civil que desde 2017 colabora con empresas de redes sociales para mejorar la transparencia y la rendición de cuentas en torno a la eliminación de contenido, Human Rights Watch insta a todas las partes interesadas, incluidas las plataformas de redes sociales, a participar en una consulta para desarrollar un mecanismo para preservar evidencia potencial de delitos graves y garantizar que esté disponible para apoyar investigaciones nacionales e internacionales, así como los esfuerzos de documentación por parte de organizaciones de la sociedad civil, periodistas y académicos.

El mecanismo en los EE. UU. para preservar la evidencia potencial de explotación sexual infantil publicada en línea proporciona lecciones importantes sobre cómo podría funcionar dicho mecanismo. Las empresas registradas en EE. UU. que operan plataformas de redes sociales deben eliminar el contenido que muestre explotación sexual infantil, pero también conservarlo en sus plataformas durante 90 días y compartir una copia del contenido, así como todos los metadatos relevantes, por ejemplo, el nombre del autor del contenido, la fecha en que se creó, la ubicación y los datos del usuario, con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). El NCMEC, una organización privada sin fines de lucro, tiene un derecho legal designado por el gobierno federal para poseer dicho material de forma indefinida y, a su vez, notifica a las fuerzas del orden público a nivel local e internacional sobre el contenido relevante que podría respaldar los enjuiciamientos.

Se podría establecer un mecanismo para preservar el contenido publicado públicamente que es evidencia potencial de delitos graves a través de la colaboración con una organización independiente que sería responsable de almacenar el material y compartirlo con los actores relevantes. Un próximo informe del Centro de Derechos Humanos de la Universidad de California, Berkeley, “Digital, Lockers: Options for Archiving Social Media Evidence of Atrocity Crimes”, estudia los posibles modelos de archivo para esto, creando una tipología de cinco modelos de archivo y evaluando fortalezas y debilidades de cada uno.

Paralelamente a estos esfuerzos, las plataformas de redes sociales deben ser más transparentes sobre sus mecanismos de eliminación existentes, incluso mediante un mayor uso de algoritmos, y trabajar para garantizar que no sean demasiado amplios o sesgados y brinden oportunidades significativas para apelar la eliminación de contenido.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd