Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2316

Loading...
Les pirates peuvent tromper une Tesla pour qu'elle accélère de 50 miles par heure
technologyreview.com · 2020

** Ne croyez pas les yeux menteurs de votre voiture. **

Les pirates ont manipulé plusieurs voitures Tesla pour accélérer de 50 miles par heure. Les chercheurs ont trompé le système de caméra Mobileye EyeQ3 de la voiture en modifiant subtilement un panneau de limitation de vitesse sur le bord d'une route d'une manière qu'une personne qui passe ne remarquerait presque jamais.

Cette démonstration de la société de cybersécurité McAfee est la dernière indication que l'apprentissage automatique contradictoire peut potentiellement détruire les systèmes de conduite autonome, présentant un défi de sécurité pour ceux qui espèrent commercialiser la technologie.

Les systèmes de caméra Mobileye EyeQ3 lisent les panneaux de limitation de vitesse et transmettent ces informations aux fonctions de conduite autonome comme le régulateur de vitesse automatique de Tesla, ont déclaré Steve Povolny et Shivangee Trivedi de l'équipe Advanced Threat Research de McAfee.

Les chercheurs ont collé un petit autocollant presque imperceptible sur un panneau de limitation de vitesse. La caméra a lu le signe comme 85 au lieu de 35, et lors des tests, le Tesla Model X 2016 et le Model S de cette année-là ont accéléré de 50 miles par heure.

Il s'agit de la dernière d'une montagne croissante de recherches montrant comment les systèmes d'apprentissage automatique peuvent être attaqués et trompés dans des situations potentiellement mortelles.

Au cours d'un processus de recherche de 18 mois, Trivedi et Povolny ont reproduit et développé une multitude d'attaques d'apprentissage automatique contradictoires, y compris une étude de la professeure de l'Université de Berkeley, Dawn Song, qui utilisait des autocollants pour [tromper une voiture autonome](https:/ /www.technologyreview.com/s/613170/emtech-digital-dawn-song-adversarial-machine-learning/) à croire qu'un panneau d'arrêt était un panneau de limitation de vitesse à 45 miles par heure. L'année dernière, des pirates ont trompé une Tesla pour qu'elle vire dans la mauvaise voie dans trafic en plaçant des autocollants sur la route dans une attaque contradictoire destinée à manipuler les algorithmes d'apprentissage automatique de la voiture.

"Pourquoi nous étudions cela à l'avance, c'est parce que vous avez des systèmes intelligents qui, à un moment donné dans le futur, effectueront des tâches qui sont maintenant gérées par des humains", a déclaré Povolny. "Si nous ne sommes pas très prévoyants quant à la nature des attaques et très attentifs à la conception des systèmes, vous disposez alors d'un parc roulant d'ordinateurs interconnectés qui constituent l'une des surfaces d'attaque les plus percutantes et les plus attrayantes qui soient."

Alors que les systèmes autonomes prolifèrent, le problème s'étend aux algorithmes d'apprentissage automatique bien au-delà des véhicules : une [étude] de mars 2019 (https://science.sciencemag.org/content/363/6433/1287) a montré que les systèmes d'apprentissage automatique donner de mauvais diagnostics.

La recherche McAfee a été divulguée à Tesla et à Mobileye EyeQ3 l'année dernière. Tesla n'a pas répondu à une demande de commentaire du MIT Technology Review, mais a reconnu les conclusions de McAfee et a déclaré que les problèmes ne seraient pas résolus dans cette génération de matériel. Un porte-parole de Mobileye a minimisé l'importance de la recherche en suggérant que le signe modifié inciterait même un humain à lire 85 au lieu de 35. La société ne considère pas que tromper la caméra est une attaque, et malgré le rôle que joue la caméra dans le régulateur de vitesse de Tesla, il n'a pas été conçu pour la conduite autonome.

"La technologie des véhicules autonomes ne reposera pas uniquement sur la détection, mais sera également soutenue par diverses autres technologies et données, telles que la cartographie participative, pour garantir la fiabilité des informations reçues des capteurs de la caméra et offrir des redondances et une sécurité plus robustes", a déclaré le a déclaré le porte-parole de Mobileye dans un communiqué.

Tesla est depuis passé à des caméras propriétaires sur des modèles plus récents, et Mobileye EyeQ3 a publié plusieurs nouvelles versions de ses caméras qui, lors des tests préliminaires, n'étaient pas sensibles à cette attaque exacte.

Il existe encore un nombre important de voitures Tesla fonctionnant avec le matériel vulnérable, a déclaré Povolny. Il a souligné que Teslas avec la première version du matériel ne peut pas être mis à niveau vers un matériel plus récent.

"Ce que nous essayons de faire, c'est que nous essayons vraiment de sensibiliser les consommateurs et les vendeurs aux types de défauts possibles", a déclaré Povolny. "Nous n'essayons pas de semer la peur et de dire que si vous conduisez cette voiture , il accélérera à travers une barrière, ou pour le sensationnaliser."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd