Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5168

Incidents associés

Incident 6729 Rapports
'Lavender' and 'The Gospel' AI Systems Reportedly Used in Gaza Targeting Operations with Civilian Harm Allegations

Loading...
L'IA et l'évolution du caractère de la guerre
tribune.com.pk · 2025

La nature de la guerre, définie par la violence, le hasard et la rationalité, demeure constante, tandis que son caractère, influencé par la géopolitique, la géoéconomie, les normes sociétales et la technologie, est en constante évolution. Au fil des décennies, malgré plusieurs révolutions militaires (RMA) – marquées par l'invention de la poudre à canon, des chars, de l'aviation et des armes nucléaires –, les phénomènes décrits par le célèbre stratège prussien Clausewitz restent d'actualité. Les conflits modernes, en particulier, connaissent une transformation radicale de la nature de la guerre, portée par le développement et le déploiement de systèmes d'armes basés sur l'IA.

Les avancées dans le domaine de l'IA ont permis l'introduction de systèmes d'armes létaux autonomes (SALA) capables de scanner, d'identifier, de verrouiller et de détruire de manière autonome, ainsi que d'évaluer les dommages au combat sur un large éventail de cibles aériennes, maritimes et terrestres avec une précision remarquable. Les systèmes basés sur l'IA impactent divers domaines et influencent les processus décisionnels à différents niveaux. Cependant, cette autonomie entraîne souvent des dommages collatéraux inacceptables, remettant en cause non seulement le niveau souhaité de contrôle humain, mais soulevant également de sérieuses inquiétudes quant à l'étendue de l'autonomie décisionnelle accordée aux machines.

De plus en plus de pays et de complexes militaro-industriels à travers le monde dépensent des milliards de dollars et consacrent des ressources pour surpasser les autres dans la recherche de systèmes de commandement et de contrôle basés sur l'IA. En 2017, le Bureau des affaires de désarmement des Nations Unies a mené une étude visant à identifier une tendance croissante, chez de nombreux pays, à développer l'utilisation de systèmes d'armes autonomes. Selon le rapport, cette tendance croissante s'est accompagnée d'un risque réel de guerre incontrôlable. De même, une étude sur l'IA et les opérations urbaines menée par l'Université de Floride du Sud a conclu que « les forces armées pourraient bientôt être en mesure de surveiller, de frapper et de tuer leurs adversaires, et même des civils à volonté ».

L'utilisation impitoyable et meurtrière de systèmes de ciblage pilotés par l'IA a été illustrée par l'armée israélienne à Gaza. En décembre 2023, The Guardian a révélé que l'armée israélienne (FDI) avait utilisé un système de ciblage basé sur l'IA, appelé Hesbora (Évangile), pour cibler plus de 100 cibles en une seule journée. Selon Aviv Kochavi, ancien chef d'état-major de Tsahal, un système basé sur le renseignement humain ne pouvait identifier que 50 cibles au maximum par an.

Le directeur général de l'entreprise technologique israélienne « Start up Nation Central », M. Avi Hasson, a déclaré que « la guerre à Gaza a donné à Tsahal l'occasion de tester des technologies émergentes qui n'avaient jamais été utilisées lors des conflits précédents ». En conséquence, Tsahal a détruit plus de 360 000 bâtiments, tué sans discrimination plus de 50 000 personnes et blessé plus de 113 500 Palestiniens, dont la plupart étaient des femmes et des enfants innocents. Ironiquement, tuer sans discrimination des non-combattants est interdit par la Quatrième Convention de Genève de 1949.

Il est intéressant de noter que les pays technologiquement avancés, militairement puissants et économiquement riches du monde entier investissent massivement dans le développement ou l'acquisition de systèmes d'armes basés sur l'IA. Le Rapport sur le marché mondial de l'IA dans le secteur militaire 2024 prévoit une croissance de 16,6 % du marché militaire mondial pour 2024, reflétant une course mondiale à la domination des technologies militaires basées sur l'IA. Dans son Nouveau Plan général pour l'IA, la Chine a déclaré que « l'IA est une technologie stratégique qui ouvrira la voie à l'avenir » et vise à devenir le leader mondial de l'IA d'ici 2030.

De même, les États-Unis ont adopté la « Troisième stratégie de compensation » pour investir massivement dans l'IA, les armes autonomes et la robotique, s'engageant à maintenir leur avance technologique. En février 2023, Asia Times a rapporté que le ministère américain de la Défense avait lancé le projet « Essaim de systèmes adaptatifs multi-domaines autonomes », visant à développer des essaims de drones autonomes pour submerger les systèmes de défense aérienne ennemis, sur terre, en mer et dans les airs.

En juin 2022, le ministère indien de la Défense a organisé le symposium « IA dans la défense » (AIDef) et présenté 75 plateformes basées sur l'IA. L'auteur et stratège indien Pravin Sawhney, dans son livre « La Dernière Guerre », publié en août 2022, a mis en lumière le rôle décisif de l'IA, des armes autonomes et des drones flottants basés sur l'IA dans un éventuel conflit armé entre la Chine et l'Inde.

Dans le même contexte, le Pakistan a également lancé le Centre pour l'IA et l'informatique (CENTAIC), sous l'égide de l'armée de l'air pakistanaise, afin de piloter le développement de l'IA et l'intégration de divers systèmes d'armes aériens, terrestres et maritimes dans les domaines opérationnels et stratégiques.

Dans le contexte sud-asiatique, compte tenu de l'hostilité persistante liée à la menace nucléaire, l'introduction de systèmes d'alerte rapide basés sur l'IA et leur utilisation sans réserve pourraient avoir de graves répercussions sur l'architecture de sécurité. Dans le même contexte, l'absence de cadre juridique complet et réglementaire, conjuguée à l'absence de monopole d'État, complique encore davantage la situation sécuritaire.

Pour évaluer la nature destructrice et dangereuse des systèmes de commandement et de contrôle basés sur l'IA, un groupe de chercheurs de quatre universités américaines a simulé un scénario de guerre en janvier 2024, à l'aide de cinq logiciels d'IA différents, dont OpenAI et Llama de Meta. Les résultats ont été choquants, tant pour les scientifiques que pour les défenseurs des systèmes d'alerte rapide basés sur l'IA. Les conclusions de l'étude ont révélé que tous les modèles simulés ont privilégié l'arme nucléaire à d'autres options, notamment les initiatives diplomatiques ou de paix, face à des adversaires.

La large disponibilité de l'IA, conjuguée à l'absence de réglementation et de monopoles mondiaux ou étatiques, la rend vulnérable à l'exploitation par des acteurs non étatiques. Cette situation appelle à une action collective et à la mise en place d'un cadre réglementaire rigoureux, tant au niveau mondial que national.

Des efforts mondiaux concertés sont nécessaires pour faire progresser, de manière légale et éthique, les initiatives axées sur l'IA. Reconnaissant l'importance et l'urgence de cette question, le Secrétaire général de l'ONU, António Guterres, a souligné, lors de son discours lors de la réunion d'orientation du Nouvel Agenda pour la paix 2023, qu'« il est nécessaire de conclure un instrument juridiquement contraignant interdisant le développement et le déploiement de systèmes d'armes autonomes d'ici 2026 ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd