Problème 2482

L'année dernière, nous avons couvert un rapport de recherche qui a découvert comment les projecteurs pouvaient être utilisés pour afficher des objets virtuels et se tromper. conduire des voitures. Dans le dernier, nous avons une autre recherche qui traite de détails étonnamment similaires mais incorporant la supercherie de [l'intelligence artificielle] (https://www.hackread.com/website-uses-artificial-intelligence-to-create-human- faces/) (AI) dans son ensemble.
Découvert par les chercheurs Abhiram Gnanasambandam, Alex M. Sherman et Stanley H. Chan de l'Université Purdue ; la nouvelle attaque a été surnommée une attaque OPtical ADversarial (OPAD) et implique l'utilisation de trois objets : un projecteur à faible coût, une caméra et un ordinateur afin d'exécuter l'attaque.
La façon dont il le fait n'est ** pas ** en plaçant de nouveaux objets virtuels dans l'environnement mais en modifiant la façon dont les objets existants déjà présents sont vus par l'IA. L'image ci-dessous montre comment des objets comme un ballon de basket ont été modifiés pour être vus comme autre chose en projetant certains motifs calculés sur eux.
Les avantages d'une telle méthode d'attaque sont qu'aucun accès physique n'est nécessaire aux objets eux-mêmes. Ceci, selon les chercheurs, s'éloigne des méthodes de tromperie de l'IA discutées précédemment, qui peuvent évidemment faciliter la dissimulation des attaquants.
Démontrant un autre exemple d'attaque, les chercheurs citent l'exemple ci-dessous :
En détaillant davantage, les chercheurs déclarent dans leur article de recherche que,
La difficulté de lancer une attaque optique est de faire en sorte que les perturbations soient imperceptibles tout en compensant les atténuations environnementales et la non linéarité de l'instrument.
OPAD surmonte ces difficultés en prenant en considération l'environnement et l'algorithme. OPAD est un cadre de méta-attaque qui peut être appliqué à toute attaque numérique existante.
Les implications réelles de cela sont qu'il peut être utilisé pour tromper, par exemple, les voitures autonomes et donc être utilisé pour provoquer des accidents ou peut-être faire des farces. D'autre part, les caméras de sécurité utilisant l'IA peuvent également être trompées, ce qui peut avoir des répercussions importantes.
Pour conclure, cela ne fonctionnera évidemment pas dans toutes les situations, mais quoi qu'il en soit, les entreprises développant des technologies d'IA doivent être à l'affût de tels problèmes de sécurité potentiels.
De plus, il est important de mentionner que la recherche a été financée par l'armée américaine, ce qui indique que les militaires sont peut-être déjà à la recherche d'utiliser de telles méthodes pour aider leurs missions sur le terrain.