Incidentes Asociados

Se ha revelado que un dron militar impulsado por Inteligencia Artificial pudo identificar y atacar objetivos humanos en Libia. El dron, Kargu-2, está fabricado por una empresa turca (STM) y está equipado con una carga útil que explota una vez que impacta o está muy cerca de su objetivo identificado por IA.
No está claro si los ataques resultaron en muertes.
Las revelaciones se hicieron en un informe publicado en marzo de 2021 por el Panel de Expertos de las Naciones Unidas (ONU) en Libia que afirmó que el dron era un “arma letal autónoma” que había “cazado y atacado remotamente” a soldados que se cree que tenían sido leal al general libio Khalifa Haftar.
"Los convoyes logísticos y las HAF en retirada fueron posteriormente perseguidos y atacados de forma remota por los vehículos aéreos de combate no tripulados o los sistemas letales de armas autónomas como el STM Kargu-2 (ver anexo 30) y otras municiones merodeadoras. Los letales sistemas autónomos de armas fueron programados para atacar objetivos sin necesidad de conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de "disparar, olvidar y encontrar". Los vehículos aéreos de combate no tripulados y la capacidad de inteligencia, vigilancia y reconocimiento de drones pequeños de HAF fueron neutralizados el sistema de guerra electrónica Koral. La potencia de fuego concentrada y la conciencia situacional que proporcionaron esas nuevas tecnologías de campo de batalla fue un multiplicador de fuerza significativo para las unidades terrestres de GNA-AF, que degradó lentamente la capacidad operativa de HAF ", dice parte de la página 17 de la carta fechada 8 de marzo de 2021 del Panel de Expertos de la ONU sobre Libia enviado al Consejo de Seguridad de la ONU.
Armas autónomas letales
Los drones militares no son un concepto nuevo, existen desde hace más de una década y han sido utilizados por varios países en ataques militares contra enemigos. Sin embargo, lo que sucedió en Libia es un nuevo desarrollo dado que el dron no tenía ningún ser humano que lo operara cuando ejecutó el ataque, se basó en la IA para identificar y atacar a sus objetivos.
Este ataque de un “arma autónoma letal”, como lo ha expresado la ONU, lleva la conversación sobre la ética del uso de drones en ataques militares a un nuevo nivel, pero también introduce otro elemento: qué tan confiable es la IA detrás de los drones STM Kargu-2. ?
Anteriormente hemos observado y cubierto extensamente cuán sesgados pueden ser algunos algoritmos y sistemas basados en IA, especialmente hacia los africanos. En este escenario militar, el temor es que tal sesgo pueda ser fatal y por lo tanto conducir a la muerte o daños permanentes e irreversibles.
Muerte por máquina
Para contrarrestar esto de alguna manera, STM enumera entre las capacidades y competencias del dron Kargu-2 su capacidad para efectuar "golpes autónomos y precisos con daños colaterales mínimos". Desafortunadamente, en tales situaciones, todo lo que se necesita es un ataque que salió mal para que la IA utilizada en los drones militares sea cuestionada.
Como también alude el informe de la ONU, la introducción de dicha tecnología en los conflictos militares nos introduce en una nueva era de "robots asesinos" como antes solo se había imaginado en la ciencia ficción.
“La introducción por parte de Turquía de tecnología militar avanzada en el conflicto fue un elemento decisivo en la guerra de desgaste, a menudo invisible y ciertamente desigual, que resultó en la derrota de HAF en el oeste de Libia durante 2020. La tecnología aérea remota, combinada con una fusión efectiva la inteligencia y la capacidad de inteligencia, vigilancia y reconocimiento cambiaron el rumbo de GNA-AF en lo que anteriormente había sido un conflicto de baja intensidad y baja tecnología en el que la prevención de bajas y la protección de la fuerza eran una prioridad para ambas partes en el conflicto".