Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4307

Loading...
L’intelligence artificielle s’infiltre sur le champ de bataille africain
brookings.edu · 2022

Alors que les armées les plus puissantes du monde se précipitent pour adopter l’intelligence artificielle en prévision d’une future guerre entre grandes puissances, les forces de sécurité de l’une des régions les plus exposées aux conflits au monde optent pour une approche plus mesurée. En Afrique, l’IA fait progressivement son chemin dans des technologies telles que les systèmes de surveillance avancés et les drones de combat, qui sont déployés pour lutter contre le crime organisé, les groupes extrémistes et les insurrections violentes. Bien que le potentiel à long terme de l’IA pour influencer les opérations militaires en Afrique soit indéniable, l’impact de l’IA sur la violence organisée a jusqu’à présent été limité. Ces limites reflètent à la fois la nouveauté et les contraintes de la technologie existante basée sur l’IA.

L’intelligence artificielle et les conflits armés en Afrique 

L’intelligence artificielle (IA), dans sa forme la plus élémentaire, exploite la puissance de calcul « pour simuler le comportement des humains qui nécessitent de l’intelligence. » L’IA n’est pas une technologie militaire comme une arme à feu ou un char d’assaut. Il s’agit plutôt, comme le soutient Michael Horowitz de l’Université de Pennsylvanie, « d’une technologie à usage général avec une multitude d’applications », comme le moteur à combustion interne, l’électricité ou Internet. Et à mesure que les applications de l’IA se multiplient à des fins militaires, elles menacent de changer la nature de la guerre. Selon [le CICR](https://blogs.icrc.org/new-delhi/2019/06/13/artificial-intelligence-and-machine-learning-in-armed-conflict-a-human-centred-approach/#:~:text=There%20are%20two%20broad%20%E2%80%93%20and%20distinct%20%E2%80%93, assistist%20and%20protect%20the%20victims%20of%20armed%20conflict.), « les systèmes d’intelligence artificielle et d’apprentissage automatique pourraient avoir de profondes implications sur le rôle des humains dans les conflits armés, notamment en ce qui concerne : l’autonomie croissante des systèmes d’armes et autres systèmes sans pilote ; les nouvelles formes de cyberguerre et de guerre de l’information ; et, plus généralement, la nature de la prise de décision. »   

L’IA a déjà une influence sur la dynamique des conflits armés et de la violence en Afrique, à deux égards au moins. Premièrement, des plateformes de surveillance et de police « intelligente » basées sur l’IA sont utilisées pour répondre aux attaques de groupes extrémistes violents et de réseaux criminels organisés. Deuxièmement, le développement de drones dotés d’IA commence à influencer les opérations de combat et les tactiques sur le champ de bataille.

L’IA est peut-être la plus largement utilisée en Afrique dans les zones où la violence est élevée, afin d’accroître les capacités et la coordination des services de maintien de l’ordre et de sécurité intérieure. Par exemple, quatorze pays africains déploient des plateformes de surveillance et de police intelligente basées sur l’IA, qui s’appuient généralement sur des réseaux neuronaux profonds pour la classification des images et sur une gamme de modèles d’apprentissage automatique pour l’analyse prédictive. À Nairobi, le géant chinois de la technologie Huawei a contribué à la mise en place d’un système de surveillance avancé. À Johannesburg, des lecteurs automatiques de plaques d’immatriculation ont permis aux autorités de traquer les criminels violents et organisés soupçonnés de liens avec l’État islamique. Bien que ces systèmes présentent des limites importantes (plus d’informations ci-dessous), ils prolifèrent dans toute l’Afrique.   

Des systèmes basés sur l’IA sont également déployés pour lutter contre le crime organisé. Dans le parc national de Liwonde au Malawi, les gardes forestiers utilisent le logiciel EarthRanger, développé par le défunt cofondateur de Microsoft, Paul Allen, pour lutter contre le braconnage en utilisant l’intelligence artificielle et l’analyse prédictive. Le logiciel détecte des schémas de braconnage que les gardes forestiers pourraient négliger, comme une augmentation du braconnage pendant les vacances et les jours de paie du gouvernement. Une petite « caméra de braconnage » activée par le mouvement s'appuie sur un algorithme pour faire la distinction entre les humains et les animaux et a contribué à au moins une arrestation. Il n'est pas difficile d'imaginer comment un tel système pourrait être réutilisé pour la contre-insurrection ou les conflits armés, avec des systèmes de surveillance et de contrôle activés par l'IA déployés pour détecter et dissuader les insurgés armés.  

En plus de l'utilisation croissante de l'IA dans les systèmes de surveillance à travers l'Afrique, l'IA a également été intégrée dans les systèmes d'armes. Les systèmes d’armes létales autonomes utilisent notamment des données de capteurs en temps réel couplées à des algorithmes d’IA et d’apprentissage automatique pour « sélectionner et attaquer des cibles sans intervention humaine ». Selon l’interprétation que l’on donne à cette définition, la première utilisation d’un système d’armes létales autonomes au combat pourrait avoir eu lieu sur le sol africain en mars 2020. Ce mois-là, des unités logistiques appartenant aux forces armées du chef de guerre libyen Khalifa Haftar ont été attaquées par des drones STM Kargu-2 de fabrication turque alors qu’elles fuyaient Tripoli. Selon un rapport des Nations Unies, le Kargu-2 représentait un système d’armes autonome mortel car il avait été « programmé pour attaquer des cibles sans nécessiter de connectivité de données entre l’opérateur et la munition ». Bien que d’autres experts aient plutôt classé le Kargu-2 comme une munition rôdeuse, son utilisation au combat en Afrique du Nord laisse néanmoins entrevoir un avenir où les armes dotées d’IA seront de plus en plus déployées dans les conflits armés de la région.  

En effet, malgré les appels mondiaux en faveur d’une interdiction d’armes similaires, la prolifération de systèmes comme le Kargu-2 ne fait probablement que commencer. Des coûts relativement faibles, des avantages tactiques et l'émergence de multiples fournisseurs ont conduit à un marché en plein essor pour les drones de combat de bas et moyen rang, actuellement dominé par des acteurs tels qu'Israël, la Chine, la Turquie et l'Afrique du Sud. De tels drones, en particulier le Bakratyar TB2 de Turquie, ont été acquis et utilisés par plus d'une douzaine de pays africains.   

Si la génération actuelle de drones ne dispose pas, dans l'ensemble, de capacités autonomes pilotées par l'IA publiquement reconnues, on ne peut pas en dire autant de la prochaine génération, qui est encore moins coûteuse, plus attrayante et utilise une « technologie d'essaimage » assistée par l'IA pour se rendre plus difficile à défendre. En février, le groupe sud-africain Paramount a annoncé le lancement de son système de drone « N-RAVEN », qu’il présente comme « une famille de véhicules aériens autonomes multi-missions dotés de technologies « en essaim » de nouvelle génération ». Le N-RAVEN pourra se déployer en unités allant jusqu’à vingt et est « conçu pour le transfert de technologie et la fabrication portable dans les pays partenaires ». Ces caractéristiques sont susceptibles d’intéresser les armées africaines.  

Les limites, les inconvénients et les risques de l’IA 

Bien que l’IA puisse continuer à jouer un rôle croissant dans les stratégies organisationnelles, les capacités de collecte de renseignements et les tactiques sur le champ de bataille des acteurs armés en Afrique et ailleurs, il est important de placer ces contributions dans une perspective plus large. L’IA ne peut pas s’attaquer aux facteurs fondamentaux des conflits armés, en particulier les insurrections complexes courantes en Afrique. Les États et les armées africains pourraient surinvestir dans l’IA, en négligeant ses risques et ses externalités, ainsi que les moyens par lesquels les capacités basées sur l’IA peuvent être atténuées ou exploitées par des acteurs armés non étatiques.

Il est peu probable que l’IA ait un impact transformateur sur le déclenchement, la durée ou l’atténuation des conflits armés en Afrique, dont l’incidence a doublé au cours de la dernière décennie. Malgré les affirmations de ses créateurs, il existe peu de preuves tangibles reliant le déploiement de villes intelligentes alimentées par l’IA à une diminution de la violence, y compris à Nairobi, où les incidents criminels sont restés pratiquement inchangés depuis 2014, lorsque les systèmes basés sur l’IA de la ville ont été mis en ligne pour la première fois. Il en va de même pour le braconnage. Pendant la pandémie de COVID-19, la diminution du nombre de touristes et les difficultés économiques locales ont entraîné des augmentations significatives du nombre de personnes qui ont été victimes de l’adoption de technologies de pointe par les gouvernements, annihilant ainsi tous les progrès qui ont résulté de l’adoption par les gouvernements de technologies de pointe.

En effet, tout conflit armé est une affaire humaine, dont les résultats sont influencés par de nombreux facteurs. Même les plus fervents défenseurs des solutions basées sur l’IA, comme David Lane, directeur des affaires publiques de Huawei pour l’Afrique australe, admettent qu’ils ne peuvent pas s’attaquer aux causes sous-jacentes de l’insécurité, comme le chômage ou les inégalités : « En fin de compte, la prévention de la criminalité nécessite de s’attaquer à ces causes de manière très locale. » Aucun algorithme d’IA ne peut empêcher la pauvreté ou l’exclusion politique, les conflits fonciers ou les ressources nationales, ni les appels chauvins des dirigeants politiques à l’identité de groupe. De même, les principaux problèmes des armées africaines – corruption endémique, violations des droits de l’homme, loyauté envers des dirigeants et des groupes spécifiques plutôt qu’envers des institutions et des citoyens, et propension à des prises de pouvoir intempestives – ne sont pas des problèmes que l’intelligence artificielle seule peut résoudre.

En second lieu, les aspects des conflits armés que l’IA semble le plus susceptible de perturber – les capacités de collecte de renseignements à distance et la puissance aérienne – sont des technologies qui permettent aux armées de maintenir leurs ennemis à distance et de remporter des batailles conventionnelles en ligne. L’utilité de l’IA dans la lutte contre les insurrections, dans lesquelles des acteurs armés non étatiques mènent des attaques de guérilla et cherchent à se fondre dans la population pour obtenir son soutien, est plus discutable. Pour remporter une insurrection, il faut une présence soutenue sur le terrain pour maintenir l’ordre et gouverner le territoire contesté. Les États ne peuvent espérer l’emporter dans de tels conflits en s’appuyant sur une technologie qui les écarte effectivement du combat.   

Enfin, l’utilisation de l’IA pour combattre les conflits armés modernes en est encore à ses balbutiements. À ce jour, les données disponibles ont documenté la manière dont les acteurs étatiques adoptent l’IA pour combattre les conflits, et non la manière dont les acteurs armés non étatiques réagissent. Néanmoins, les États ne seront pas les seuls à chercher à exploiter les armes autonomes. D'anciens militaires africains spéculent que ce n'est qu'une question de temps avant que « des essaims ou des grappes de drones offensifs » ne soient déployés par des acteurs non étatiques en Afrique, compte tenu de leur accessibilité, de leur faible coût et de leur utilisation existante dans la surveillance et la contrebande.  Des militants des droits de l'homme ont tiré la sonnette d'alarme sur le potentiel de petits « robots d'abattage » bon marché, qui utilisent des systèmes d'IA et de reconnaissance faciale disponibles gratuitement pour commettre des actes de terreur de masse. Ce scénario particulier est controversé, mais selon Audrey Kurth Cronin de l'American University, « il est à la fois techniquement réalisable et cohérent avec les modèles classiques de diffusion ».

L'évolution de l'IA dans les conflits armés

Ces inconvénients et risques suggèrent que la diffusion continue de l'IA n'entraînera probablement pas les changements révolutionnaires dans les conflits armés suggérés par certains de ses plus fervents partisans et soutiens. L'IA moderne est peut-être plutôt considérée comme la poursuite et peut-être l'accélération de tendances technologiques de longue date qui ont amélioré les capacités de détection et numérisé et automatisé les opérations et les tactiques des acteurs armés partout dans le monde.

Malgré toute sa complexité, l'IA est avant tout une technologie numérique, dont l'impact dépend d'une « triade technique » composée de « données, d'algorithmes et de puissance de calcul » et est difficile à distinguer. L'impact des plateformes de surveillance alimentées par l'IA, du logiciel EarthRanger utilisé à Liwonde aux plateformes de « police intelligente » fournies par Huawei, n'est pas seulement le résultat d'algorithmes d'apprentissage automatique qui permettent des capacités de raisonnement de type humain, mais aussi sur la capacité à stocker, collecter, traiter, rassembler et gérer de vastes quantités de données. De même, comme le soulignent des analystes tels que Kelsey Atherton, le Kargu 2 utilisé en Libye peut être classé comme une munition rôdeuse autonome comme le drone Harpy d'Israël. La principale différence entre le Kargu 2 et le Harpy, fabriqué pour la première fois en 1989, est que le premier utilise la reconnaissance d'image basée sur l'IA, le second utilise des capteurs électro-optiques pour détecter et cibler les émissions radar ennemies.

La diffusion de l'IA en Afrique, comme la diffusion plus large de la technologie numérique, est susceptible d'être diverse et inégale. L'Afrique reste la région la moins numérisée du monde. Les taux de pénétration d'Internet sont faibles et le resteront probablement dans la plupart des pays les plus sujets aux conflits (https://www.internetworldstats.com/stats1.htm). En Somalie, au Soudan du Sud, en Éthiopie, en République démocratique du Congo et dans une grande partie du bassin du lac Tchad, la pénétration d'Internet est inférieure à 20 %. Il est peu probable que l'IA ait un impact important sur les conflits dans les régions où les citoyens laissent peu d'empreintes numériques et où les groupes armés non étatiques contrôlent des territoires hors de portée de l'État.

Dans l'ensemble, ces évolutions suggèrent que l'IA provoquera une évolution constante des conflits armés en Afrique et ailleurs, plutôt que de les révolutionner. La numérisation et l’adoption généralisée de plateformes d’armes autonomes pourraient élargir les yeux et allonger les poings des armées étatiques. Les acteurs non étatiques adopteront eux-mêmes ces technologies et trouveront des moyens astucieux de les exploiter ou de les neutraliser. L’intelligence artificielle sera utilisée en combinaison avec des inventions tout aussi influentes, mais moins voyantes, telles que l’AK-47, le véhicule tactique non standard et l’IED pour permettre de nouvelles tactiques qui tirent parti ou exploitent les tendances vers de meilleures capacités de détection et une mobilité accrue.

Progressivement et de concert avec d’autres technologies émergentes, l’IA transforme les outils et les tactiques de guerre. Néanmoins, l’expérience de l’Afrique suggère que les humains resteront les principaux acteurs du drame des conflits armés modernes.

Nathaniel Allen est professeur adjoint au Centre africain d’études stratégiques de la National Defense University et membre du Council on Foreign Relations.

Marian « Ify » Okpali est chercheuse en cyberpolitique et spécialiste universitaire au Centre africain d’études stratégiques de la National Defense University. Les opinions exprimées dans cet article sont celles des auteurs.

Microsoft apporte un soutien financier à la Brookings Institution, une organisation à but non lucratif consacrée à la recherche rigoureuse, indépendante et approfondie sur les politiques publiques.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd