Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6232

Incidents associés

Incident 6729 Rapports
'Lavender' and 'The Gospel' AI Systems Reportedly Used in Gaza Targeting Operations with Civilian Harm Allegations

Loading...
Les expériences d'intelligence artificielle menées par Israël dans la guerre de Gaza suscitent des inquiétudes éthiques.
nytimes.com · 2025

Fin 2023, Israël visait à assassiner Ibrahim Biari, un haut commandant du Hamas dans le nord de la bande de Gaza qui avait contribué à planifier les massacres du 7 octobre. Mais les services de renseignement israéliens n'ont pas réussi à localiser M. Biari, qu'ils pensaient caché dans le réseau de tunnels sous Gaza.

Des officiers israéliens se sont donc tournés vers une nouvelle technologie militaire intégrant l'intelligence artificielle, ont déclaré trois responsables israéliens et américains informés des événements. Cette technologie avait été développée dix ans plus tôt, mais n'avait jamais été utilisée au combat. La découverte de M. Biari a incité à améliorer l'outil. Les ingénieurs de l'Unité 8200 israélienne, l'équivalent de l'Agence de sécurité nationale (NSA), y ont donc rapidement intégré l'IA, selon ces sources.

Peu après, Israël a écouté les appels de M. Biari et testé l'outil audio d'IA, qui lui a fourni une localisation approximative. Grâce à ces informations, Israël a ordonné des frappes aériennes sur la zone le 31 octobre 2023, tuant M. Biari. Plus de 125 civils ont également péri dans l'attaque, selon Airwars, un observateur des conflits basé à Londres.

Cet outil audio n'est qu'un exemple parmi d'autres de la manière dont Israël a exploité la guerre à Gaza pour tester et déployer rapidement des technologies militaires basées sur l'IA à un niveau inédit, selon des entretiens avec neuf responsables de la défense américains et israéliens, qui ont requis l'anonymat, le travail étant confidentiel.

Au cours des 18 derniers mois, Israël a également combiné l'IA à des logiciels de reconnaissance faciale pour associer des visages partiellement masqués ou blessés à des identités réelles, s'est tourné vers l'IA pour identifier les cibles potentielles de frappes aériennes et a créé un modèle d'IA en langue arabe pour alimenter un chatbot capable de scanner et d'analyser des SMS, des publications sur les réseaux sociaux et d'autres données en langue arabe, ont indiqué deux personnes connaissant bien ces programmes.

Une grande partie de ces efforts a été le fruit d'un partenariat entre des soldats de l'Unité 8200 et des soldats de réserve travaillant pour des entreprises technologiques telles que Google, Microsoft et Meta, ont indiqué trois personnes connaissant bien ces technologies. L'Unité 8200 a créé ce qui est devenu « Le Studio », un pôle d'innovation et un lieu de mise en relation d'experts et de projets d'IA, ont précisé ces personnes.

Pourtant, même si Israël s'est empressé de développer son arsenal d'IA, le déploiement de ces technologies a parfois conduit à des erreurs d'identification et à des arrestations, ainsi qu'à des décès de civils, ont déclaré des responsables israéliens et américains. Certains responsables ont été confrontés aux implications éthiques de ces outils d'IA, qui pourraient entraîner une surveillance accrue et d'autres décès de civils.

Aucune autre nation n'a été aussi active qu'Israël dans l'expérimentation d'outils d'IA dans des combats en temps réel, ont déclaré des responsables de la défense européens et américains, donnant un aperçu de la manière dont ces technologies pourraient être utilisées dans les guerres futures – et de leurs possibles dysfonctionnements.

« L'urgence de faire face à la crise a accéléré l'innovation, en grande partie grâce à l'IA », a déclaré Hadas Lorber, directrice de l'Institut de recherche appliquée en IA responsable de l'Institut de technologie Holon d'Israël et ancienne directrice principale du Conseil de sécurité nationale israélien. « Cela a donné naissance à des technologies révolutionnaires sur le champ de bataille et à des avantages qui se sont avérés cruciaux au combat. »

Mais ces technologies « soulèvent également de graves questions éthiques », a déclaré Mme Lorber. Elle a averti que l'IA avait besoin de freins et contrepoids, ajoutant que les décisions finales devraient revenir aux humains.

Une porte-parole de l'armée israélienne a déclaré ne pas pouvoir commenter certaines technologies en raison de leur « caractère confidentiel ». Israël « s'engage à utiliser les outils informatiques de manière légale et responsable », a-t-elle déclaré, ajoutant que l'armée enquêtait sur l'attaque contre M. Biari et était « incapable de fournir d'autres informations tant que l'enquête n'était pas terminée ».

Meta et Microsoft ont refusé de commenter. Google a déclaré avoir « des employés qui effectuent des missions de réserve dans différents pays du monde. Le travail de ces employés en tant que réservistes n'a aucun lien avec Google ».

Israël a déjà profité des conflits à Gaza et au Liban pour expérimenter et perfectionner des outils technologiques destinés à son armée, tels que des drones, des outils de piratage téléphonique et le système de défense Dôme de Fer (https://www.nytimes.com/2024/04/14/world/europe/israel-iron-dome-defense.html), capable d'intercepter des missiles balistiques à courte portée.

Après les attaques transfrontalières lancées par le Hamas contre Israël le 7 octobre 2023, qui ont fait plus de 1 200 morts et 250 prises d'otages, le déploiement des technologies d'IA a été rapidement autorisé, ont déclaré quatre responsables israéliens. Cela a conduit à une coopération entre l'Unité 8200 et les soldats de réserve du « Studio » pour développer rapidement de nouvelles capacités d'IA, ont-ils précisé.

Avi Hasson, directeur général de Startup Nation Central, une organisation israélienne à but non lucratif qui met en relation investisseurs et entreprises, a déclaré que les réservistes de Meta, Google et Microsoft étaient devenus essentiels à l'innovation dans le domaine des drones et de l'intégration des données.

« Les réservistes ont apporté un savoir-faire et un accès à des technologies clés qui n'étaient pas disponibles dans l'armée », a-t-il déclaré.

L'armée israélienne a rapidement utilisé l'IA pour améliorer sa flotte de drones. Aviv Shapira, fondateur et directeur général de XTEND, une entreprise de logiciels et de drones qui collabore avec l'armée israélienne, a déclaré que des algorithmes basés sur l'IA étaient utilisés pour construire des drones capables de verrouiller et de suivre des cibles à distance.

« Auparavant, les capacités de guidage reposaient sur la focalisation sur une image de la cible », a-t-il expliqué. « Aujourd'hui, l'IA peut reconnaître et suivre l'objet lui-même, qu'il s'agisse d'une voiture en mouvement ou d'une personne, avec une précision redoutable. » M. Shapira a déclaré que ses principaux clients, l'armée israélienne et le ministère américain de la Défense, étaient conscients des implications éthiques de l'IA en temps de guerre et avaient discuté d'une utilisation responsable de cette technologie.

L'un des outils développés par « The Studio » était un modèle d'IA en langue arabe, connu sous le nom de modèle de langage étendu, ont déclaré trois officiers israéliens connaissant bien le programme. (Ce modèle de langage étendu a été précédemment rapporté par Plus 972, un site d'information israélo-palestinien.)

Les développeurs avaient auparavant du mal à créer un tel modèle en raison du manque de données en langue arabe pour entraîner la technologie. Lorsque ces données étaient disponibles, elles étaient principalement en arabe écrit standard, plus formel que les dizaines de dialectes utilisés dans l'arabe parlé.

L'armée israélienne n'a pas rencontré ce problème, ont déclaré les trois officiers. Le pays comptait des décennies d'interceptions de SMS, de transcriptions d'appels téléphoniques et de publications extraites des réseaux sociaux en dialectes arabes parlés. Dès les premiers mois de la guerre, des officiers israéliens ont donc créé un vaste modèle linguistique et développé un chatbot pour effectuer des requêtes en arabe. Ils ont fusionné cet outil avec des bases de données multimédias, permettant ainsi aux analystes d'effectuer des recherches complexes sur des images et des vidéos, ont indiqué quatre responsables israéliens.

Lors de l'assassinat du chef du Hezbollah Hassan Nasrallah par Israël en septembre, le chatbot a analysé les réponses dans le monde arabophone, ont indiqué trois officiers israéliens. Cette technologie a permis de différencier les différents dialectes du Liban afin d'évaluer la réaction du public, aidant ainsi Israël à évaluer si une pression publique s'exerçait en faveur d'une contre-attaque.

Parfois, le chatbot ne parvenait pas à identifier certains termes d'argot moderne et certains mots translittérés de l'anglais vers l'arabe, ont indiqué deux officiers. Cela a nécessité la révision et la correction de son travail par des agents du renseignement israéliens experts dans différents dialectes, a précisé l'un d'eux.

Le chatbot fournissait également parfois des réponses erronées, par exemple en renvoyant des photos de tuyaux au lieu d'armes à feu, ont indiqué deux officiers du renseignement israélien. Malgré cela, l'outil d'IA a considérablement accéléré la recherche et l'analyse, ont-ils déclaré.

Après les attaques du 7 octobre, aux points de contrôle temporaires installés entre le nord et le sud de la bande de Gaza, Israël a également commencé à équiper des caméras capables de scanner et d'envoyer des images haute résolution des Palestiniens à un programme de reconnaissance faciale soutenu par l'IA (https://www.nytimes.com/2024/03/27/technology/israel-facial-recognition-gaza.html).

Ce système avait lui aussi parfois du mal à identifier les personnes dont le visage était masqué. Cela a conduit à des arrestations et des interrogatoires de Palestiniens repérés par erreur par le système de reconnaissance faciale, ont déclaré deux agents des services de renseignement israéliens.

Israël a également utilisé l'IA pour passer au crible les données recueillies par les services de renseignement sur les membres du Hamas. Avant la guerre, Israël avait développé un algorithme d'apprentissage automatique, nommé « Lavande », capable de trier rapidement les données pour traquer les militants de bas niveau. Il a été entraîné à partir d'une base de données de membres confirmés du Hamas et était censé prédire qui d'autre pourrait faire partie du groupe. Bien que les prédictions du système soient imparfaites, Israël l'a utilisé au début de la guerre à Gaza pour choisir les cibles de ses attaques.

Peu d'objectifs étaient plus importants que la recherche et l'élimination des hauts dirigeants du Hamas. En tête de liste figurait M. Biari, le commandant du Hamas qui, selon les responsables israéliens, a joué un rôle central dans la planification des attentats du 7 octobre.

Les services de renseignement militaires israéliens ont rapidement intercepté les appels de M. Biari avec d'autres membres du Hamas, mais n'ont pas pu le localiser avec précision. Ils se sont donc tournés vers cet outil audio basé sur l'IA, qui analysait différents sons, tels que les bombes soniques et les frappes aériennes.

Après avoir déduit l'emplacement approximatif de l'endroit où M. Biari passait ses appels, les responsables militaires israéliens ont été avertis que la zone, qui comprenait plusieurs immeubles, était densément peuplée, ont déclaré deux officiers du renseignement. Une frappe aérienne devrait cibler plusieurs bâtiments pour garantir l'assassinat de M. Biari, ont-ils précisé. L'opération a été approuvée.

Depuis lors, les services de renseignement israéliens ont également utilisé l'outil audio, ainsi que des cartes et des photos du labyrinthe de tunnels souterrains de Gaza, pour localiser les otages. Au fil du temps, l'outil a été perfectionné pour retrouver les individus avec plus de précision, ont indiqué deux officiers israéliens.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd