Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6774

Loading...
L'aube du drone IA
nytimes.com · 2025

Note de la rédaction d'AIID : Cet article est abrégé. Veuillez consulter la source originale pour lire le rapport complet.

Par une douce matinée, il y a quelques mois, Lipa, un pilote de drone ukrainien, survolait à bord d'un petit quadricoptère gris les champs dévastés près de Borysivka, un minuscule village occupé, limitrophe de la Russie. Un drone de surveillance avait repéré des signes indiquant qu'une équipe de drones ennemis s'était installée dans des entrepôts abandonnés à la périphérie du village. Lipa et son navigateur, Bober, avaient l'intention d'éliminer l'équipe ou de la déloger.

Un autre pilote avait déjà tenté de frapper la zone à deux reprises avec des quadricoptères kamikazes classiques, vulnérables au brouillage radio qui peut interrompre la communication entre le pilote et le drone, provoquant ainsi le dysfonctionnement des armes. Les brouilleurs russes les en avaient empêchés. Lipa avait été chargé de la troisième tentative, cette fois-ci avec un Bumblebee, un drone inhabituel fourni par une entreprise secrète dirigée par Eric Schmidt, l'ancien PDG de Google et l'un des hommes les plus riches du monde.

Bober était assis à côté de Lipa tandis qu'il se préparait pour une attaque. Depuis les hauteurs de Borysivka, l'une des deux caméras embarquées du Bumblebee pointa le drone vers la façade est d'un bâtiment. Bober vérifia les images, puis une carte numérique, et confirma : ils avaient trouvé la cible. « Verrouillé », annonça Lipa.

De la main droite, Lipa actionna un interrupteur, libérant le drone du contrôle humain. Piloté par intelligence artificielle, le Bumblebee piqua du ciel sans autre intervention extérieure. Durant sa descente, il perdit le contact avec Lipa et Bober. Qu'importe : il poursuivit son attaque en toute autonomie. Ses capteurs et son logiciel restèrent focalisés sur le bâtiment et ajustèrent leur cap et leur vitesse indépendamment.

Un autre drone retransmit l'événement en direct : le Bumblebee s'écrasa contre un mur extérieur et explosa. On ignorait si des soldats russes avaient été blessés, mais un drone semi-autonome avait atteint sa cible là où les drones pilotés par des humains avaient échoué, rendant la position intenable. « Ils vont changer de position maintenant », conclut Lipa. (Conformément aux règles de sécurité ukrainiennes, les soldats sont désignés par leur prénom ou leur indicatif d'appel.)

Tout au long de l'année 2025, dans le cadre de la guerre russo-ukrainienne, et notamment lors d'opérations largement invisibles et non annoncées comme le raid sur l'entrepôt de Borysivka, l'ère des robots tueurs a commencé à se dessiner sur le champ de bataille. Sur un front d'environ 1 300 kilomètres et dans l'espace aérien des deux pays, des drones dotés de nouvelles fonctionnalités autonomes sont désormais utilisés quotidiennement au combat. Au printemps dernier, les Bumblebees, lancés depuis des positions ukrainiennes, avaient effectué plus de 1 000 missions de combat contre des cibles russes, selon une brochure du fabricant vantant les capacités de l'arme. Les pilotes affirment en avoir effectué des milliers d'autres depuis.

L'introduction du Bumblebee a immédiatement suscité l'inquiétude au sein des cercles militaires du Kremlin, selon deux rapports des services de renseignement technique russes. Un rapport, basé sur la dissection d'un Bumblebee endommagé récupéré sur le front, décrivait un drone mystérieux doté de puces et d'une carte mère « de la plus haute qualité, équivalente à celle des plus grands fabricants mondiaux de microélectronique ». Le rapport notait les défauts inhérents à un prototype, mais concluait sur une prédiction inquiétante : « Malgré les limitations actuelles, affirmait-il, cette technologie démontrera son efficacité » et son champ d'application « continuera de s'étendre ».

Cette conclusion, bien que prémonitoire, était en deçà des attentes, car les Bumblebees volent rarement seuls. Sous la pression de l'invasion, l'Ukraine est devenue un terrain d'essai grandeur nature où fabricants d'armes, gouvernements, investisseurs, unités de première ligne, programmeurs et ingénieurs occidentaux collaborent pour produire des armes qui automatisent certaines étapes de la chaîne de destruction militaire conventionnelle. Équipés de logiciels propriétaires embarqués, entraînés sur de vastes ensembles de données et souvent exécutés sur des micro-ordinateurs standard comme le Raspberry Pi, les drones autonomes font désormais partie intégrante du train de bataille sanglant et destructeur de la guerre.

Au cours de visites répétées chez des fabricants d'armes, sur des champs de tir et auprès d'unités de première ligne pendant 18 mois, j'ai pu observer leur développement de visu. Les fonctions désormais autonomes comprennent : le décollage ou le vol stationnaire sans pilote, la géolocalisation, la navigation vers les zones d'attaque, ainsi que la reconnaissance, le suivi et la poursuite des cibles, jusqu'à la frappe terminale, point final létal de la mission. Les concepteurs de logiciels ont également interconnecté plusieurs drones via une application partagée, permettant le transfert du contrôle de vol entre pilotes humains ou l'organisation des drones en attaques étroitement séquencées – un pas vers les essaims gérés par ordinateur. Des armes dotées de ces capacités sont en service au sein des brigades terrestres, ainsi que dans les unités de défense aérienne, de renseignement et de frappe en profondeur.

Les drones entièrement contrôlés par des humains restent bien plus nombreux que leurs homologues semi-autonomes. Ils sont responsables de la plupart des blessures sur le champ de bataille. Mais les armes sans pilote ouvrent de nouvelles perspectives. Et bien qu'aucun drone connu du public engagé dans ce conflit n'automatise l'intégralité d'une mission de combat au sein d'une seule arme, certains concepteurs ont confié le contrôle de certaines étapes séquentielles à l'intelligence artificielle. « Toute équation tactique impliquant un être humain peut intégrer l'intelligence artificielle », a déclaré le fondateur de X-Drone, une entreprise ukrainienne qui a entraîné des logiciels permettant à des drones de rechercher et d'identifier une cible fixe, comme un réservoir de stockage de pétrole, puis de la frapper sans pilote. (Le fondateur a demandé à ce que son nom ne soit pas divulgué pour des raisons de sécurité.)

Les forces du Kremlin adoptent également des armes dotées d'intelligence artificielle, selon les analyses de drones russes abattus menées par Conflict Armament Research, une société privée d'enquêtes sur les armements. Face aux investissements des deux camps, Mykhailo Fedorov, premier vice-Premier ministre ukrainien, a déclaré que les drones à intelligence artificielle sont au cœur d'une nouvelle course aux armements. Les forces de défense ukrainiennes doivent les déployer rapidement en grand nombre, a-t-il affirmé, sous peine de défaite. « Nous nous efforçons de stimuler le développement de l'autonomie à tous les niveaux », a-t-il déclaré. « Nous devons développer et acquérir davantage de drones autonomes. »

Certes, les armes familières des champs de bataille modernes, toutes sous contrôle humain, ont causé des dommages incommensurables à des générations de soldats et de civils. Même les armes encensées par les généraux et les experts pour leur précision stupéfiante, comme les missiles à guidage GPS ou les bombes à guidage laser, ont souvent atteint leurs cibles, tuant des innocents, souvent en toute impunité. Aucun âge d'or n'est révolu. Au contraire, les drones semi-autonomes aggravent les périls existants et présentent de nouvelles menaces. Peter Asaro, vice-président de la campagne « Stop Killer Robots », philosophe et professeur associé à la New School, a mis en garde contre les dangers croissants liés à l'exploration de terrains pratiques et éthiques inexplorés. « Le développement d'une autonomie croissante des drones soulève de graves questions concernant les droits de l'homme et la protection des civils dans les conflits armés », a-t-il déclaré. « La capacité de sélectionner des cibles de manière autonome constitue une limite morale à ne pas franchir. »

Le concept de robot tueur est flou et sujet à exagération, évoquant le T-800 de « Terminator », une machine à tuer mobile et adaptative déployée par Skynet, une superintelligence artificielle qui perçoit l'humanité comme une menace. Rien de comparable n'existe en Ukraine. « Tout le monde pense : “Oh, vous êtes en train de créer Skynet !” », explique un capitaine chargé d'intégrer les nouvelles technologies au sein de la 13e brigade de Khartia de la Garde nationale ukrainienne, l'une des unités les plus sophistiquées du pays, où servent Lipa et Bober. « Non, la technologie est intéressante. Mais ce n'est qu'un premier pas, et il en reste beaucoup à faire. »

Le capitaine et d'autres techniciens travaillant sur des armes dotées d'IA affirment qu'elles sont généralement fragiles, limitées dans leurs fonctionnalités et moins précises que les armes contrôlées par des humains qualifiés. Nombre d'entre elles ont une faible autonomie et une courte durée de vol. Les armes autonomes dotées d'une endurance soutenue, d'une grande flexibilité et de la capacité de discerner, d'identifier, de hiérarchiser et de poursuivre de multiples catégories de cibles sans intervention humaine n'ont pas encore vu le jour. Selon le capitaine, leur développement exigerait des investissements colossaux, ainsi que beaucoup d'imagination et de temps. « C'est comme l'escalier de l'Empire State Building », a-t-il illustré. « Il y a autant de marches, et nous sommes à l'intérieur, mais seulement au premier étage. »

Afin d'éviter que les armes pilotées par l'IA ne deviennent incontrôlables, les humanitaires et de nombreux technologues préconisent depuis longtemps de maintenir un contrôle humain, autrement dit, d'empêcher les armes de prendre des décisions meurtrières de manière autonome. Selon cette approche, un humain formé doit évaluer et approuver toutes les cibles, comme l'ont fait Lipa et Bober, idéalement avec le pouvoir d'annuler une frappe individuelle et un dispositif d'arrêt d'urgence pour désactiver l'ensemble du système. Des garde-fous solides, selon cet argument, sont indispensables pour garantir la responsabilité, le respect du droit des conflits armés, la légitimité des actions militaires et, en fin de compte, la sécurité des populations.

Schmidt a insisté sur la nécessité d'une supervision humaine. Mais au terme d'un vol, certaines armes semi-autonomes en Ukraine sont déjà capables d'identifier des cibles sans intervention humaine, et de nombreux systèmes de fabrication ukrainienne avec commande humaine sont peu coûteux et pourraient être copiés et modifiés par des programmeurs talentueux du monde entier. Certains concepteurs d'armes dotées d'IA, qui estiment leur développement nécessaire à la défense de l'Ukraine, avouent une certaine inquiétude quant à la technologie qu'ils contribuent à créer. « Je crois que nous avons créé le monstre », a déclaré Nazar Bigun, un jeune physicien qui développe des logiciels d'attaque terminale. « Et je ne sais pas où cela va nous mener. »

L'aube de l'attaque autonome


Le parcours de Bigun illustre comment la durée et les spécificités de la guerre ont incité à la création d'armes semi-autonomes. Lorsque la Russie a déployé des divisions mécanisées à la frontière ukrainienne en 2022, Bigun dirigeait une équipe d'ingénieurs logiciels au sein d'une start-up technologique allemande. Début 2023, il fonda une initiative de volontariat pour l'armée qui finit par produire 200 drones de vol à la première personne (FPV) par mois. Ce fut une contribution significative à l'effort de guerre ukrainien, à une époque où les drones de loisir bon marché, chargés d'explosifs et dont le potentiel révolutionnaire n'était pas encore largement reconnu, restaient rares. Il aurait pu se concentrer uniquement sur cet objectif. Mais, au contact des pilotes de drones en première ligne, lui et ses collègues s'inquiétèrent de la baisse de réussite des drones kamikazes face aux adaptations défensives, et ils se joignirent à la recherche de solutions.

Les problèmes étaient nombreux. À mesure que le nombre de drones augmentait, les deux camps développèrent des contre-mesures physiques et électroniques. Les soldats installèrent des poteaux et tendirent des filets pour intercepter les drones en vol, et ils recouvrirent les tourelles et les châssis des véhicules militaires de filets de protection, de grilles ou de cages soudées. Parmi les contre-mesures les plus frustrantes figuraient les brouilleurs qui saturaient les fréquences de fonctionnement utilisées pour le contrôle de vol et les liaisons vidéo, générant un bruit électronique qui réduisait la clarté du signal entre le pilote et le drone. Ces systèmes se sont généralisés autour des cibles de grande valeur, notamment les bunkers de commandement et les positions d'artillerie. On les retrouvait également sur des équipements mobiles coûteux, tels que les systèmes de défense aérienne, les lance-roquettes multiples et les chars.

Ce problème complexe a conduit à la création de drones volant sur des câbles à fibres optiques, une solution déjà déployée sur le champ de bataille. Il a également stimulé l'intérêt de Bigun pour une forme d'attaque assistée par ordinateur, appelée ciblage autonome du dernier kilomètre, dans laquelle la vision par ordinateur et le contrôle de vol autonome guideraient les drones lors de la phase finale de l'attaque sans intervention radio du pilote. De tels systèmes promettaient un autre avantage : ils augmenteraient l'efficacité des frappes à longue portée et au-delà de l'horizon radio, lorsque le relief ou la courbure de la Terre perturbent un signal radio stable.

En théorie, la solution technique était simple. Lorsque les pilotes anticipaient une interruption des communications, ils pouvaient confier le contrôle du vol à un système automatisé – une puce puissante et un logiciel hautement perfectionné – qui menait à bien la mission. Grâce à cette technologie, couplée à des capteurs embarqués et à une caméra, le pilote pouvait verrouiller le mini-drone sur une cible et le lâcher pour une frappe autonome. La société NORDA Dynamics, cofondée par Bigun en 2024, ne fabriquait pas de drones à l'origine. Elle s'est donc attelée à la création d'un composant adaptable aux armes d'autres fabricants. Avec ce composant, un pilote pouvait continuer à piloter le drone du décollage jusqu'à l'approche de la cible. Il avait ensuite la possibilité de lancer une attaque autonome.

Soutenue par des financements du gouvernement ukrainien et de sociétés de capital-risque, NORDA a consacré une grande partie de l'année 2024 aux tests d'un prototype qui a donné naissance à son produit phare, Underdog, un petit module se fixant à un drone de combat. Aux commandes d'un quadricoptère équipé d'Underdog, un pilote muni de lunettes FPV conserve le contrôle de l'arme du décollage jusqu'à la quasi-totalité de la cible. Mais lors de la phase finale d'un vol, le pilote a le choix – via une fenêtre à l'écran qui effectue un zoom sur les objets d'intérêt, comme un bâtiment ou une voiture – d'autoriser une attaque autonome grâce à un processus appelé verrouillage pixel. À ce moment-là, Underdog prend le relais.

Underdog a commencé par des tests sur des objets immobiles, mais après plusieurs mises à jour, son logiciel a pu poursuivre des cibles mobiles. La portée a également été étendue. Les premiers modules permettaient une attaque terminale de 400 mètres ; à l'été 2025, avec la cinquième version du logiciel de NORDA, le verrouillage pixel atteignait 2 000 mètres, soit environ 2 kilomètres. À ce moment-là, les modules avaient été distribués aux équipes de drones de combat (F.P.V.) collaboratrices sur le terrain. « Nous avons reçu d'excellents retours », a déclaré Bigun. Un tableau d'affichage de l'entreprise recensait les premières cibles touchées, parmi lesquelles des pièces d'artillerie russes, des camions, des unités radar mobiles et un char.

Un après-midi d'été dans l'ouest de l'Ukraine, Bigun et plusieurs employés arrivèrent à une rangée d'arbres sauvages (poiriers, pommiers et pruniers) qui séparait des champs cultivés. Des vaches déambulaient, agitant la queue pour chasser les mouches. Deux cigognes blanches se posèrent au sol et se frayèrent un chemin entre les sillons, à la recherche de proies. Les techniciens de NORDA envoyèrent un 4x4 noir, avec un conducteur et une radio, parcourir les champs.

Un pilote d'essai, Janusz, un Polonais qui avait été infirmier de combat volontaire en Ukraine avant de rejoindre l'entreprise, était assis dans le véhicule, portant des lunettes de protection et tenant une radiocommande. Une fois le 4x4 éloigné, il pilota un drone FPV non armé jusqu'au décollage. « Je pilote », annonça-t-il par radio.

La vidéo montrait des champs dorés et des brise-vent verdoyants, surmontés de chemins de terre. Le drone monta à environ 60 mètres d'altitude. Sa caméra révéla le 4x4 noir à moins d'un kilomètre. Sur l'écran, Janusz fit glisser un curseur blanc carré sur l'image du véhicule. Une fenêtre contextuelle apparut dans le coin supérieur gauche, affichant un gros plan stabilisé du SUV. De la main gauche, Janusz sélectionna le verrouillage de pixel. Le mot « ENGAGE » s'afficha dans une bannière rouge à l'écran. Un fin réticule noir se positionna au centre du SUV.

Janusz lâcha la manette. À une altitude d'environ 65 mètres, le drone amorça un lent piqué. En quelques secondes, il se rapprocha presque du pare-brise du SUV en mouvement. Janusz reprit le pilotage manuel et inclina le quadricoptère pour éviter l'impact.

À son ordre, le drone prit de l'altitude, fit demi-tour et reprit la poursuite, cette fois à plus de 150 mètres d'altitude. Sa proie bondissait sur la route. Janusz aligna le curseur et réactiva le verrouillage de pixel. Le drone amorça un second piqué, accélérant vers la voiture en fuite. Une fois de plus, Janusz reprit le contrôle au dernier moment. Le quadricoptère vrombissait si près que le sifflement de ses moteurs fut capté par la radio du véhicule et diffusé à l'intérieur de la camionnette du pilote. Janusz sourit.

Il fit pivoter le drone, pointant vers lui la camionnette dans laquelle il se trouvait. Le curseur afficha brièvement la possibilité d'un verrouillage pixel sur lui. Janusz laissa échapper un petit rire et orienta le drone vers le SUV. La voix du conducteur grésilla dans la radio. « On va faire demi-tour », annonça-t-il.

Pendant la demi-heure qui suivit, les manœuvres du conducteur restèrent vaines. Quoi qu'il fasse, le drone, une fois verrouillé, réduisait la distance de lui-même, harcelant le véhicule en mouvement avec la ténacité d'un oiseau obsédé.

Comparé aux conditions habituelles d'un conflit armé, cet exercice sur le terrain était simple. Les vitesses au sol étaient faibles, les vols se déroulaient de jour, et aucun câble électrique ni branche d'arbre ne gênait le passage. Le drone maintenait un contact visuel constant avec le SUV, et le logiciel devait se verrouiller sur un véhicule isolé, et non sur une cible se faufilant dans la circulation ou dépassant des voitures stationnées. Cependant, avec un entraînement plus poussé et une puissance de calcul accrue, le logiciel pourrait être amélioré pour identifier et prioriser les cibles militaires en fonction de leur coût de remplacement ou de leur niveau de menace, ou encore être optimisé pour frapper les véhicules blindés à des endroits vulnérables, comme les grilles d'échappement ou la jonction entre les tourelles et la coque. Il pourrait être entraîné à traquer presque n'importe quoi : un bus, un avion stationné, un pupitre où un orateur s'adresse à un public, un transformateur électrique abaisseur distribuant l'électricité sur un réseau.

Pour Bigun, la crainte naturelle que cette technologie puisse être utilisée contre les civils a été supplantée par les impératifs de survie. Outre la programmation, son travail consiste à interagir avec des concepteurs d'armements ukrainiens et occidentaux, notamment lors de salons de l'armement, où il recherche des partenaires et des clients. Il se rend aussi souvent au Champ de Mars, un cimetière de Lviv, lieu de recueillement et de souffrance.

Le grand-oncle de Bigun était un nationaliste ukrainien sous le régime totalitaire de Staline. De ce fait, le grand-père de Bigun fut considéré comme un ennemi de l'État par association et déporté en Sibérie à l'âge de 16 ans. Tous deux reposent sur le même site, rejoints par une procession de soldats tombés depuis l'invasion. Un soir, après l'une des apparitions de Bigun à un salon d'armes, des personnes en deuil ponçaient à la main de grands crucifix en bois, puis y appliquaient de nouveau du vernis ; une veuve était assise près d'une tombe, parlant à son mari disparu comme s'il sirotait du thé sur une chaise en face ; une famille formait un demi-cercle autour d'une parcelle fleurie, chacun prenant la parole à tour de rôle pour raconter les nouvelles du défunt. Le cimetière était plein à craquer en décembre – près de 1 300 tombes –, ce qui incita Lviv à ouvrir un second cimetière pour accueillir le flux continu de morts de guerre. Juste avant Noël, ce second cimetière comptait 14 nouveaux monticules.

Bigun abhorre la nécessité de ces lieux. Mais outre les commémorations de ses amis fauchés prématurément par la guerre, il trouve, dit-il, l'inspiration pour poursuivre son travail. « C'est ici que je mesure le prix que nous payons », a-t-il déclaré, « et cela me motive à aller de l'avant. » À la fin de l'année, NORDA Dynamics avait fourni aux unités de première ligne combattant à l'Est plus de 50 000 modules Underdog.

...

Lire la suite de l'article à la source originale.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd