Incidentes Asociados
A finales de 2023, Israel pretendía asesinar a Ibrahim Biari, un alto comandante de Hamás en el norte de la Franja de Gaza que había ayudado a planificar las masacres del 7 de octubre. Sin embargo, la inteligencia israelí no pudo encontrar al Sr. Biari, a quien creían oculto en la red de túneles bajo Gaza.
Por ello, los oficiales israelíes recurrieron a una nueva tecnología militar dotada de inteligencia artificial, según informaron tres funcionarios israelíes y estadounidenses informados sobre los sucesos. Esta tecnología se había desarrollado una década antes, pero no se había utilizado en combate. El hallazgo del Sr. Biari supuso un nuevo incentivo para mejorar la herramienta, por lo que los ingenieros de la Unidad 8200 de Israel, el equivalente israelí a la Agencia de Seguridad Nacional, pronto integraron inteligencia artificial (IA) en ella, según las fuentes.
Poco después, Israel escuchó las llamadas del Sr. Biari y probó la herramienta de audio de IA, que proporcionó una ubicación aproximada del lugar donde realizaba sus llamadas. Con esa información, Israel ordenó ataques aéreos contra la zona el 31 de octubre de 2023, causando la muerte del Sr. Biari. Más de 125 civiles también murieron en el ataque, según Airwars, un observador de conflictos con sede en Londres.
La herramienta de audio fue solo un ejemplo de cómo Israel ha utilizado la guerra en Gaza para probar y desplegar rápidamente tecnologías militares basadas en IA a un nivel sin precedentes, según entrevistas con nueve funcionarios de defensa estadounidenses e israelíes, quienes hablaron bajo condición de anonimato debido a la confidencialidad del trabajo.
En los últimos 18 meses, Israel también ha combinado IA con software de reconocimiento facial para comparar rostros parcialmente ocultos o heridos con identidades reales; ha recurrido a la IA para recopilar posibles objetivos de ataques aéreos; y ha creado un modelo de IA en árabe para impulsar un chatbot capaz de escanear y analizar mensajes de texto, publicaciones en redes sociales y otros datos en árabe, según informaron dos personas con conocimiento de los programas.
Muchos de estos esfuerzos fueron una colaboración entre soldados rasos de la Unidad 8200 y soldados de la reserva que trabajan en empresas tecnológicas como Google, Microsoft y Meta, según informaron tres personas con conocimiento de las tecnologías. La Unidad 8200 creó lo que se conoció como "El Estudio", un centro de innovación y un lugar para conectar a expertos con IA. Proyectos, dijeron las fuentes.
Sin embargo, incluso mientras Israel se apresuraba a desarrollar el arsenal de IA, el despliegue de estas tecnologías en ocasiones condujo a identificaciones erróneas y arrestos, así como a muertes de civiles, según funcionarios israelíes y estadounidenses. Algunos funcionarios han tenido dificultades con las implicaciones éticas de las herramientas de IA, que podrían resultar en una mayor vigilancia y otras muertes de civiles.
Ninguna otra nación ha sido tan activa como Israel en la experimentación con herramientas de IA en batallas en tiempo real, afirmaron funcionarios de defensa europeos y estadounidenses, ofreciendo un anticipo de cómo dichas tecnologías podrían usarse en guerras futuras, y cómo también podrían fracasar.
"La urgente necesidad de afrontar la crisis aceleró la innovación, gran parte de ella impulsada por la IA", declaró Hadas Lorber, director del Instituto de Investigación Aplicada en IA Responsable del Instituto de Tecnología Holon de Israel y exdirector sénior del Consejo de Seguridad Nacional de Israel. "Esto condujo a tecnologías revolucionarias en el campo de batalla y a ventajas que resultaron cruciales en combate".
Pero las tecnologías "también plantean serias cuestiones éticas", afirmó la Sra. Lorber. Advirtió que la IA necesita controles y contrapesos, y añadió que los humanos deben tomar las decisiones finales.
Una portavoz del ejército israelí declaró que no podía hacer comentarios sobre tecnologías específicas debido a su "carácter confidencial". Israel "está comprometido con el uso legal y responsable de las herramientas tecnológicas de datos", afirmó, y añadió que el ejército estaba investigando el ataque contra el Sr. Biari y "no podía proporcionar más información hasta que la investigación concluyera".
Meta y Microsoft declinaron hacer comentarios. Google afirmó tener "empleados que prestan servicio en la reserva en varios países del mundo. El trabajo que realizan esos empleados como reservistas no está relacionado con Google". Israel utilizó previamente los conflictos en Gaza y Líbano para experimentar y desarrollar herramientas tecnológicas para su ejército, como drones, herramientas de piratería telefónica y el sistema de defensa Cúpula de Hierro, que puede ayudar a interceptar misiles balísticos de corto alcance.
Después de que Hamás lanzara ataques transfronterizos contra Israel el 7 de octubre de 2023, matando a más de 1200 personas y tomando 250 rehenes, las tecnologías de IA fueron rápidamente autorizadas para su despliegue, según informaron cuatro funcionarios israelíes. Esto condujo a la cooperación entre la Unidad 8200 y los soldados de reserva en "El Estudio" para desarrollar rápidamente nuevas capacidades de IA, según indicaron.
Avi Hasson, director ejecutivo de Startup Nation Central, una organización israelí sin fines de lucro que conecta a inversores con empresas, afirmó que los reservistas de Meta, Google y Microsoft se habían vuelto cruciales para impulsar la innovación en drones e integración de datos. "Los reservistas aportaron conocimientos y acceso a tecnologías clave que no estaban disponibles en el ejército", afirmó.
El ejército israelí pronto utilizó IA para mejorar su flota de drones (https://www.nytimes.com/interactive/2025/03/03/world/europe/ukraine-russia-war-drones-deaths.html). Aviv Shapira, fundador y director ejecutivo de XTEND, una empresa de software y drones que colabora con el ejército israelí, explicó que se utilizaron algoritmos basados en IA para construir drones que fijaran y rastrearan objetivos a distancia.
"Antes, las capacidades de rastreo dependían de la focalización de una imagen del objetivo", explicó. "Ahora la IA puede reconocer y rastrear el propio objeto, ya sea un coche en movimiento o una persona, con una precisión letal".
El Sr. Shapira afirmó que sus principales clientes, el ejército israelí y el Departamento de Defensa de EE. UU., conocían las implicaciones éticas de la IA en la guerra y debatieron sobre el uso responsable de la tecnología.
Una herramienta desarrollada por "The Studio" fue un modelo de IA en árabe conocido como modelo de lenguaje extenso, según informaron tres oficiales israelíes familiarizados con el programa. (El modelo de lenguaje extenso fue informado anteriormente de Plus 972, un sitio de noticias israelí-palestino).
Anteriormente, los desarrolladores tuvieron dificultades para crear un modelo de este tipo debido a la escasez de datos en árabe para entrenar la tecnología. Cuando dichos datos estaban disponibles, se encontraban principalmente en árabe escrito estándar, que es más formal que las docenas de dialectos utilizados en el árabe hablado.
El ejército israelí no tuvo ese problema, afirmaron los tres oficiales. El país acumulaba décadas de mensajes de texto interceptados, llamadas telefónicas transcritas y publicaciones extraídas de redes sociales en dialectos árabes hablados. Por ello, oficiales israelíes crearon el amplio modelo lingüístico durante los primeros meses de la guerra y crearon un chatbot para realizar consultas en árabe. Fusionaron la herramienta con bases de datos multimedia, lo que permitió a los analistas realizar búsquedas complejas en imágenes y vídeos, según informaron cuatro oficiales israelíes.
Cuando Israel asesinó al líder de Hezbolá, Hassan Nasrallah, en septiembre, el chatbot analizó las respuestas en todo el mundo araboparlante, según informaron tres oficiales israelíes. La tecnología diferenciaba entre los distintos dialectos del Líbano para medir la reacción pública, lo que ayudaba a Israel a evaluar si existía presión pública para un contraataque.
En ocasiones, el chatbot no podía identificar algunos términos y palabras de jerga moderna transliterados del inglés al árabe, según dos oficiales. Esto requería que oficiales de inteligencia israelíes con experiencia en diferentes dialectos revisaran y corrigieran su trabajo, explicó uno de ellos.
El chatbot también ofrecía respuestas incorrectas en ocasiones; por ejemplo, mostraba fotos de tuberías en lugar de armas, según dos oficiales de inteligencia israelíes. Aun así, la herramienta de IA aceleró significativamente la investigación y el análisis, afirmaron.
En los puestos de control temporales establecidos entre el norte y el sur de la Franja de Gaza, Israel también comenzó a equipar cámaras tras los atentados del 7 de octubre con la capacidad de escanear y enviar imágenes de alta resolución de palestinos a un programa de reconocimiento facial basado en IA (https://www.nytimes.com/2024/03/27/technology/israel-facial-recognition-gaza.html).
Este sistema también tuvo dificultades en ocasiones para identificar a las personas cuyos rostros estaban ocultos. Esto condujo a arrestos e interrogatorios de palestinos que fueron identificados por error por el sistema de reconocimiento facial, según informaron dos oficiales de inteligencia israelíes.
Israel también utilizó IA para analizar los datos recopilados por los agentes de inteligencia sobre miembros de Hamás. Antes de la guerra, Israel desarrolló un algoritmo de aprendizaje automático, cuyo nombre en código era "Lavender", que podía clasificar rápidamente los datos para localizar a militantes de bajo nivel. Se entrenó con una base de datos de miembros confirmados de Hamás y su objetivo era predecir quién más podría formar parte del grupo. Aunque las predicciones del sistema eran imperfectas, Israel lo utilizó al comienzo de la guerra en Gaza para ayudar a elegir los objetivos de los ataques.
Pocos objetivos eran más importantes que encontrar y eliminar a los altos mandos de Hamás. Encabezando la lista estaba el Sr. Biari, el comandante de Hamás que, según las autoridades israelíes, desempeñó un papel central en la planificación de los atentados del 7 de octubre.
La inteligencia militar israelí interceptó rápidamente las llamadas del Sr. Biari con otros miembros de Hamás, pero no pudo determinar su ubicación. Por lo tanto, recurrieron a la herramienta de audio basada en IA, que analizaba diferentes sonidos, como bombas sónicas y ataques aéreos. Tras deducir la ubicación aproximada de donde el Sr. Biari realizaba sus llamadas, se advirtió a los oficiales militares israelíes que la zona, que incluía varios complejos de apartamentos, estaba densamente poblada, según informaron dos oficiales de inteligencia. Un ataque aéreo tendría que tener como objetivo varios edificios para asegurar el asesinato del Sr. Biari, indicaron. La operación recibió luz verde.
Desde entonces, la inteligencia israelí también ha utilizado la herramienta de audio junto con mapas y fotos del laberinto de túneles subterráneos de Gaza para localizar rehenes. Con el tiempo, la herramienta se perfeccionó para encontrar individuos con mayor precisión, según dos oficiales israelíes.