Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1519

Loading...
Tencent Keen Security Lab : recherche expérimentale sur la sécurité du pilote automatique Tesla
keenlab.tencent.com · 2019

Introduction

Avec l'essor de l'intelligence artificielle, les technologies liées au système avancé d'assistance à la conduite (ADAS) connaissent un développement rapide dans l'industrie automobile. Entre-temps, la sécurité et la sûreté d'ADAS ont également fait l'objet d'une attention particulière.

En tant qu'équipe de recherche en sécurité de classe mondiale, Tencent Keen Security Lab mène des recherches continues dans ce domaine. Lors de la conférence sur la sécurité Black Hat USA 2018, Keen Lab a présenté la toute première démonstration pour compromettre à distance le système Autopilot[1] sur une Tesla Model S (la chaîne d'attaque a été corrigée immédiatement après que nous l'avons signalé à Tesla)[2].

Dans des recherches ultérieures sur la sécurité des technologies ADAS, Keen Lab se concentre sur des domaines tels que la sécurité du système de perception visuelle du modèle d'IA et la sécurité de l'architecture du système de pilotage automatique. Grâce à une recherche expérimentale approfondie sur le pilote automatique Tesla, nous avons acquis les trois réalisations suivantes.

Résultats de recherche

Défaut de reconnaissance visuelle des essuie-glaces automatiques

Tesla Autopilot peut identifier le temps humide grâce à la technologie de reconnaissance d'image, puis activer les essuie-glaces si nécessaire. Sur la base de nos recherches, avec un exemple contradictoire généré astucieusement dans le monde physique, le système sera interféré et renverra un résultat "incorrect", puis activera les essuie-glaces.

Défaut de reconnaissance de voie

Tesla Autopilot reconnaît les voies et assiste le contrôle en identifiant les marquages routiers. Sur la base de la recherche, nous avons prouvé qu'en plaçant des autocollants d'interférence sur la route, le système de pilote automatique capte ces informations et émet un jugement anormal, ce qui fait entrer le véhicule dans la voie de marche arrière.

Contrôler le système de direction avec une manette de jeu

Après avoir compromis le système de pilote automatique sur la Tesla Model S (ver 2018.6.1), Keen Lab a en outre prouvé que nous pouvons contrôler le système de direction via le système de pilote automatique avec une manette de jeu sans fil, même lorsque le système de pilote automatique n'est pas activé par le conducteur.

Démonstration de recherche

Veuillez trouver notre vidéo de recherche ci-dessous pour la démonstration, ou cliquez ici pour voir la vidéo.

Document de recherche technique

Pour plus de détails techniques sur nos recherches, veuillez consulter le lien suivant : Experimental Security Research of Tesla Autopilot.pdf

Commentaires de Tesla

Les commentaires de Tesla sur les essuie-glaces automatiques :

« Cette recherche a été démontrée en affichant une image sur un téléviseur placé directement devant le pare-brise d'une voiture. Il ne s'agit pas d'une situation réelle à laquelle les conducteurs seraient confrontés, ni d'un problème de sûreté ou de sécurité. De plus, comme nous l'indiquons dans notre manuel du propriétaire, le "réglage automatique [pour nos essuie-glaces] est actuellement en version BETA". Un client peut également choisir d'utiliser le réglage manuel des essuie-glaces à tout moment. »

Les commentaires de Tesla sur la reconnaissance de voie :

"Dans cette démonstration, les chercheurs ont ajusté l'environnement physique (par exemple, en plaçant du ruban adhésif sur la route ou en modifiant les lignes de voie) autour du véhicule pour que la voiture se comporte différemment lorsque le pilote automatique est utilisé. Ce n'est pas une préoccupation réelle étant donné qu'un conducteur peut facilement remplacer le pilote automatique à tout moment en utilisant le volant ou les freins et doit être prêt à le faire à tout moment.

Les commentaires de Tesla pour la recherche "Control Steering System with a Gamepad":

"La principale vulnérabilité abordée dans ce rapport a été corrigée par Tesla via une mise à jour de sécurité robuste en 2017, suivie d'une autre mise à jour de sécurité complète en 2018, que nous avons toutes deux publiées avant que ce groupe ne nous rapporte cette recherche. Au cours des nombreuses années où nous avons eu des voitures sur la route, nous n'avons jamais vu un seul client affecté par l'une des recherches de ce rapport.

[1] https://www.tesla.com/autopilot

[2] https://www.blackhat.com/us-18/briefings/schedule/#over-the-air-how-we-remotely-compromised-the-gateway-bcm-and-autopilot-ecus-of- voitures-tesla-10806

[3] https://keenlab.tencent.com/zh/2017/04/01/remote-attack-on-mi-ninebot/

[4] https://keenlab.tencent.com/en/2016/09/19/Keen-Security-Lab-of-Tencent-Car-Hacking-Research-Remote-Attack-to-Tesla-Cars/

[5] https://keenlab.tencent.com/en/2017/07/27/New-Car-Hacking-Research-2017-Remote-Attack-Tesla-Motors-Again/

[6] https://keenlab.tencent.com/zh/2018/05/22/New-CarHacking-Research-by-KeenLab-Experimental-Security-Assessment-of-BMW-Cars/

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd