Incidentes Asociados

La naturaleza de la guerra, definida por la violencia, el azar y la racionalidad, permanece constante, mientras que su carácter, influenciado por la geopolítica, la geoeconomía, las normas sociales y la tecnología, está sujeto a cambios constantes. A lo largo de las décadas, a pesar de haber experimentado varias Revoluciones en Asuntos Militares (RMA), marcadas por la invención de la pólvora, los tanques, la aviación y las armas nucleares, los fenómenos descritos por el famoso estratega prusiano Clausewitz siguen vigentes. En particular, los conflictos modernos están experimentando una transformación revolucionaria en la naturaleza de la guerra, impulsada por el desarrollo y el despliegue de sistemas de armas basados en IA.
Los avances en el campo de la IA han permitido la introducción de Sistemas de Armas Autónomos Letales (LAWS), capaces de escanear, identificar, bloquear y destruir de forma autónoma, así como de evaluar los daños en combate sobre una gama de objetivos aéreos, marítimos y terrestres con una precisión notable. Los sistemas basados en IA están impactando diversos dominios e influyendo en los procesos de toma de decisiones a diferentes niveles. Sin embargo, esta autonomía a menudo conlleva daños colaterales inaceptables, lo que plantea desafíos no solo al nivel deseado de control humano, sino también a serias preocupaciones sobre el alcance de la autonomía en la toma de decisiones otorgada a las máquinas.
Cada vez más países y complejos militares industriales en todo el mundo invierten miles de millones de dólares y destinan recursos para superar a otros en la búsqueda de sistemas de mando y control basados en IA. En 2017, la Oficina de Asuntos de Desarme de las Naciones Unidas realizó un estudio para identificar una tendencia creciente en varios países a buscar y desarrollar el uso de sistemas de armas autónomos. Según el informe, esta creciente tendencia conlleva un riesgo real de guerra incontrolable. De igual manera, un estudio sobre IA y Operaciones Urbanas realizado por la Universidad del Sur de Florida concluyó que «las fuerzas armadas pronto podrían monitorear, atacar y matar a sus oponentes e incluso a civiles a voluntad».
El uso despiadado y letal de sistemas de selección de objetivos basados en IA quedó ejemplificado por las Fuerzas de Defensa de Israel (FDI) en Gaza. En diciembre de 2023, The Guardian reveló que las Fuerzas de Defensa de Israel (FDI) utilizaron un sistema de selección de objetivos basado en IA llamado Hesbora (Evangelio) para atacar a más de 100 objetivos en un solo día. Según Aviv Kochavi, exjefe de las FDI, un sistema basado en inteligencia humana solo podía identificar hasta 50 objetivos en un año entero.
El Sr. Avi Hasson, director ejecutivo de la empresa tecnológica israelí 'Start up Nation Central', declaró que "la guerra en Gaza ha brindado a las FDI la oportunidad de probar tecnologías emergentes que nunca se habían utilizado en conflictos anteriores". Como resultado, las FDI destruyeron más de 360.000 edificios, asesinaron indiscriminadamente a más de 50.000 personas e hirieron a más de 113.500 palestinos, la mayoría de los cuales eran mujeres y niños inocentes. Irónicamente, la matanza indiscriminada de no combatientes está prohibida en la Cuarta Convención de Ginebra de 1949.
Curiosamente, países tecnológicamente avanzados, militarmente fuertes y económicamente ricos de todo el mundo están invirtiendo fuertemente en el desarrollo o la adquisición de sistemas de armas basados en IA. El Informe del Mercado Global de IA en el Ejército 2024 proyectó un crecimiento del 16,6 % en el mercado militar mundial para 2024, lo que refleja una carrera global por dominar la tecnología militar impulsada por IA. En su Nuevo Plan General de IA, China declaró que «la IA es una tecnología estratégica que liderará el futuro» y aspira a ser el líder mundial en IA para 2030.
De igual manera, Estados Unidos ha adoptado la «Estrategia de Tercera Compensación» para invertir fuertemente en IA, armas autónomas y robótica, prometiendo mantener su ventaja tecnológica. En febrero de 2023, Asia Times informó que el Departamento de Defensa de EE. UU. lanzó el proyecto Enjambre de Sistemas Adaptativos Multidominio Autónomos, cuyo objetivo es desarrollar enjambres de drones autónomos para neutralizar los sistemas de defensa aérea enemigos en aire, tierra y mar.
En junio de 2022, el Ministerio de Defensa de la India organizó el simposio "IA en Defensa" (AIDef) y presentó 75 plataformas basadas en IA. El autor y estratega indio Pravin Sawhney, en su libro "La Última Guerra", publicado en agosto de 2022, ha destacado el papel decisivo de la IA, las armas autónomas basadas en IA y los drones de navegación en un posible conflicto armado entre China e India.
En el mismo contexto, Pakistán también ha puesto en marcha el Centro de IA y Computación (CENTAIC), bajo los auspicios de la Fuerza Aérea de Pakistán, para impulsar el desarrollo de la IA y la integración basada en IA de diversos sistemas de armas aéreos, terrestres y marítimos en los ámbitos operativos y estratégicos.
En el contexto del sur de Asia, dada la prolongada enemistad derivada del auge nuclear, la introducción de sistemas de combate aéreo (LAWS) basados en IA y su uso inquebrantable podrían tener graves repercusiones en la arquitectura de seguridad. En este mismo contexto, la ausencia de un marco legal integral y regulatorio, sumada a la inexistencia de monopolios estatales, complica aún más la situación de seguridad.
Para evaluar la naturaleza destructiva y peligrosa de los sistemas de comando y control basados en IA, un grupo de investigadores de cuatro universidades estadounidenses simuló un escenario de guerra en enero de 2024 utilizando cinco programas de IA diferentes, incluyendo OpenAI y Llama de Meta. Los resultados fueron impactantes tanto para los científicos como para los defensores de los LAWS basados en IA. Los hallazgos del estudio revelaron que todos los modelos simulados seleccionaron las armas nucleares como su primera opción frente a otras opciones, como las iniciativas diplomáticas o de paz, al enfrentarse a adversarios.
La amplia disponibilidad de la tecnología de IA, sumada a la ausencia de regulaciones y monopolios a nivel global o estatal, la hace vulnerable a la explotación por parte de actores no estatales. Esta situación exige la adopción de medidas colectivas y la implementación de un marco regulatorio riguroso, tanto a nivel global como nacional.
Se requieren esfuerzos globales concertados para impulsar las iniciativas impulsadas por la IA desde el punto de vista legal y ético. Reconociendo la importancia y la urgencia de este asunto, el Secretario General de la ONU, António Guterres, enfatizó en su discurso durante la sesión informativa sobre políticas de la Nueva Agenda para la Paz de 2023 que «es necesario concluir un instrumento jurídicamente vinculante que prohíba el desarrollo y el despliegue de sistemas de armas autónomos para 2026».