Problema 3451
La agencia de espionaje de China ha advertido sobre los riesgos que plantea la tecnología de inteligencia artificial, especialmente aquellos que podrían amenazar la seguridad nacional. El Ministerio de Seguridad del Estado dijo que el rápido desarrollo y la amplia aplicación de la IA, como ChatGPT, plantean desafíos que "pueden cambiar fundamentalmente el panorama de seguridad nacional existente en el futuro cercano".
En un artículo publicado en su cuenta de WeChat el jueves, el ministerio enumeró las fugas de datos, los ataques cibernéticos y la manipulación de datos como riesgos potenciales, así como el impacto de la tecnología en la economía y el ejército.
A principios de este año, el Ministro de Seguridad del Estado, Chen Yixin, advirtió sobre los desafíos de ciberseguridad que podrían amenazar la infraestructura de China. También escribió en un artículo publicado en septiembre que tecnologías como la IA habían traído nuevas y mayores incertidumbres para la seguridad.
Beijing presentó un marco para la inteligencia artificial en el foro de la Franja y la Ruta del mes pasado, pidiendo igualdad de derechos para todas las naciones. El marco, conocido como Iniciativa Global de Gobernanza de la IA, señala las enormes oportunidades de la inteligencia artificial, pero también sus “riesgos impredecibles y desafíos complicados”. La gobernanza de la IA es una de las áreas en las que Beijing y Washington se han comprometido a cooperar, según una declaración china tras la cumbre del miércoles entre Xi Jinping y Joe Biden en San Francisco. En el artículo, la agencia de espionaje de China advirtió sobre los riesgos de la filtración de datos, señalando que la IA requiere cantidades masivas de datos para el aprendizaje y la capacitación y que podría incluir mucha información confidencial. El ministerio dijo que cualquier uso indebido de información o filtración podría representar una grave amenaza a la privacidad de las personas y a la seguridad nacional.
También advirtió sobre ciberataques que, según el ministerio, podrían ser asistidos por IA, y que los piratas informáticos podrían "lanzar fácilmente ataques dirigidos y altamente ocultos contra objetivos específicos".
La agencia también señaló el riesgo de "intoxicación de datos" o "agregar datos maliciosos a los datos de entrenamiento de la IA". Dijo que esto podría alterar el funcionamiento normal de los modelos de análisis de datos, y puso el ejemplo de la alteración de la tecnología de los automóviles inteligentes que podría provocar accidentes. Otro ejemplo fue el ataque a campañas de propaganda, que, según dijo, podrían dar lugar a "pensamientos negativos" discretamente. infiltrarse en la opinión pública.
Además, el artículo expresó preocupación por la posibilidad de que la tecnología de inteligencia artificial reemplace a los trabajadores humanos en algunas áreas, lo que, según dijo, podría tener un impacto en la seguridad económica, social y política del país. El ministerio dijo que la tecnología también podría usarse para causar pánico en los mercados financieros mediante la manipulación de información.
Dijo que había riesgos en el uso de IA en armas letales autónomas y en su uso para hacer que las acciones militares sean más específicas y precisas al conectar redes, tomadores de decisiones y operadores.
El ministerio dijo que era necesario endurecer las leyes y regulaciones sobre la tecnología, así como promover la gobernanza global y combatir los delitos relacionados con la IA.
"Abordar los riesgos de la IA y aprovechar la iniciativa estratégica del desarrollo de la IA para salvaguardar eficazmente la seguridad nacional es una cuestión importante en la gobernanza de la seguridad nacional global", decía el artículo.
Pidió una mayor “confianza estratégica” y coordinación sobre el desarrollo y la seguridad de la IA y una respuesta “prudente” a los riesgos y desafíos.