Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1519

Loading...
Tencent Keen Security Lab: Investigación de seguridad experimental del piloto automático de Tesla
keenlab.tencent.com · 2019

Introducción

Con el auge de la inteligencia artificial, las tecnologías relacionadas con el sistema avanzado de asistencia al conductor (ADAS) están experimentando un rápido desarrollo en la industria de los vehículos. Mientras tanto, la seguridad y la protección de ADAS también han recibido una gran atención.

Como equipo de investigación de seguridad líder en el mundo, Tencent Keen Security Lab ha estado realizando investigaciones continuas en esta área. En la conferencia de seguridad Black Hat USA 2018, Keen Lab presentó la primera demostración para comprometer de forma remota el sistema Autopilot[1] en un Tesla Model S (la cadena de ataque se solucionó inmediatamente después de que informamos a Tesla)[2].

En una investigación de seguridad posterior hacia las tecnologías ADAS, Keen Lab se está enfocando en áreas como la seguridad del sistema de percepción visual del modelo de IA y la seguridad de la arquitectura del sistema Autopilot. A través de una profunda investigación experimental en el piloto automático de Tesla, adquirimos los siguientes tres logros.

Resultados de la investigación

Defecto de reconocimiento de visión de los limpiaparabrisas automáticos

Tesla Autopilot puede identificar el clima húmedo a través de la tecnología de reconocimiento de imágenes y luego encender los limpiaparabrisas si es necesario. Según nuestra investigación, con un ejemplo adversario generado astutamente en el mundo físico, el sistema será interferido y devolverá un resultado "inadecuado", luego encenderá los limpiaparabrisas.

Fallo de reconocimiento de carril

Tesla Autopilot reconoce los carriles y asiste al control al identificar las marcas de tráfico en la carretera. Con base en la investigación, demostramos que al colocar calcomanías de interferencia en la carretera, el sistema Autopilot capturará esta información y hará una evaluación anormal, lo que hace que el vehículo ingrese al carril de reversa.

Sistema de dirección de control con un Gamepad

Después de comprometer el sistema de piloto automático en el Tesla Model S (ver 2018.6.1), Keen Lab demostró además que podemos controlar el sistema de dirección a través del sistema de piloto automático con un gamepad inalámbrico, incluso cuando el conductor no activa el sistema de piloto automático.

Demostración de investigación

Encuentre nuestro video de investigación a continuación para ver la demostración, o haga clic aquí para ver el video.

Documento de investigación técnica

Para obtener más detalles técnicos de nuestra investigación, consulte el siguiente enlace: Investigación de seguridad experimental de Tesla Autopilot.pdf

Comentarios de Tesla

Comentarios de Tesla sobre los limpiaparabrisas automáticos:

“Esta investigación se demostró al mostrar una imagen en un televisor que se colocó directamente frente al parabrisas de un automóvil. Esta no es una situación del mundo real a la que se enfrentarían los conductores, ni es un problema de seguridad. Además, como indicamos en nuestro Manual del Propietario, la 'configuración automática [para nuestros limpiaparabrisas] está actualmente en BETA'. Un cliente también puede optar por usar la configuración manual del limpiaparabrisas en cualquier momento".

Comentarios de Tesla sobre el reconocimiento de carril:

“En esta demostración, los investigadores ajustaron el entorno físico (p. ej., colocando cinta adhesiva en la carretera o alterando las líneas de los carriles) alrededor del vehículo para que se comporte de manera diferente cuando se usa el piloto automático. Esta no es una preocupación del mundo real dado que un conductor puede anular fácilmente el piloto automático en cualquier momento usando el volante o los frenos y debe estar preparado para hacerlo en todo momento”.

Comentarios de Tesla para la investigación del "Sistema de dirección de control con un Gamepad":

“La vulnerabilidad principal abordada en este informe fue reparada por Tesla a través de una sólida actualización de seguridad en 2017, seguida de otra actualización de seguridad integral en 2018, las cuales publicamos antes de que este grupo nos informara sobre esta investigación. En los muchos años que hemos tenido automóviles en la carretera, nunca hemos visto a un solo cliente afectado por ninguna de las investigaciones de este informe”.

[1] https://www.tesla.com/autopilot

[2] https://www.blackhat.com/us-18/briefings/schedule/#over-the-air-how-we-remotely-compromised-the-gateway-bcm-and-autopilot-ecus-of- tesla-coches-10806

[3] https://keenlab.tencent.com/zh/2017/04/01/remote-attack-on-mi-ninebot/

[4] https://keenlab.tencent.com/en/2016/09/19/Keen-Security-Lab-of-Tencent-Car-Hacking-Research-Remote-Attack-to-Tesla-Cars/

[5] https://keenlab.tencent.com/en/2017/07/27/New-Car-Hacking-Research-2017-Remote-Attack-Tesla-Motors-Again/

[6] https://keenlab.tencent.com/zh/2018/05/22/New-CarHacking-Research-by-KeenLab-Experimental-Security-Assessment-of-BMW-Cars/

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd