Problema 1519

Introducción
Con el auge de la inteligencia artificial, las tecnologías relacionadas con el sistema avanzado de asistencia al conductor (ADAS) están experimentando un rápido desarrollo en la industria de los vehículos. Mientras tanto, la seguridad y la protección de ADAS también han recibido una gran atención.
Como equipo de investigación de seguridad líder en el mundo, Tencent Keen Security Lab ha estado realizando investigaciones continuas en esta área. En la conferencia de seguridad Black Hat USA 2018, Keen Lab presentó la primera demostración para comprometer de forma remota el sistema Autopilot[1] en un Tesla Model S (la cadena de ataque se solucionó inmediatamente después de que informamos a Tesla)[2].
En una investigación de seguridad posterior hacia las tecnologías ADAS, Keen Lab se está enfocando en áreas como la seguridad del sistema de percepción visual del modelo de IA y la seguridad de la arquitectura del sistema Autopilot. A través de una profunda investigación experimental en el piloto automático de Tesla, adquirimos los siguientes tres logros.
Resultados de la investigación
Defecto de reconocimiento de visión de los limpiaparabrisas automáticos
Tesla Autopilot puede identificar el clima húmedo a través de la tecnología de reconocimiento de imágenes y luego encender los limpiaparabrisas si es necesario. Según nuestra investigación, con un ejemplo adversario generado astutamente en el mundo físico, el sistema será interferido y devolverá un resultado "inadecuado", luego encenderá los limpiaparabrisas.
Fallo de reconocimiento de carril
Tesla Autopilot reconoce los carriles y asiste al control al identificar las marcas de tráfico en la carretera. Con base en la investigación, demostramos que al colocar calcomanías de interferencia en la carretera, el sistema Autopilot capturará esta información y hará una evaluación anormal, lo que hace que el vehículo ingrese al carril de reversa.
Sistema de dirección de control con un Gamepad
Después de comprometer el sistema de piloto automático en el Tesla Model S (ver 2018.6.1), Keen Lab demostró además que podemos controlar el sistema de dirección a través del sistema de piloto automático con un gamepad inalámbrico, incluso cuando el conductor no activa el sistema de piloto automático.
Demostración de investigación
Encuentre nuestro video de investigación a continuación para ver la demostración, o haga clic aquí para ver el video.
Documento de investigación técnica
Para obtener más detalles técnicos de nuestra investigación, consulte el siguiente enlace: Investigación de seguridad experimental de Tesla Autopilot.pdf
Comentarios de Tesla
Comentarios de Tesla sobre los limpiaparabrisas automáticos:
“Esta investigación se demostró al mostrar una imagen en un televisor que se colocó directamente frente al parabrisas de un automóvil. Esta no es una situación del mundo real a la que se enfrentarían los conductores, ni es un problema de seguridad. Además, como indicamos en nuestro Manual del Propietario, la 'configuración automática [para nuestros limpiaparabrisas] está actualmente en BETA'. Un cliente también puede optar por usar la configuración manual del limpiaparabrisas en cualquier momento".
Comentarios de Tesla sobre el reconocimiento de carril:
“En esta demostración, los investigadores ajustaron el entorno físico (p. ej., colocando cinta adhesiva en la carretera o alterando las líneas de los carriles) alrededor del vehículo para que se comporte de manera diferente cuando se usa el piloto automático. Esta no es una preocupación del mundo real dado que un conductor puede anular fácilmente el piloto automático en cualquier momento usando el volante o los frenos y debe estar preparado para hacerlo en todo momento”.
Comentarios de Tesla para la investigación del "Sistema de dirección de control con un Gamepad":
“La vulnerabilidad principal abordada en este informe fue reparada por Tesla a través de una sólida actualización de seguridad en 2017, seguida de otra actualización de seguridad integral en 2018, las cuales publicamos antes de que este grupo nos informara sobre esta investigación. En los muchos años que hemos tenido automóviles en la carretera, nunca hemos visto a un solo cliente afectado por ninguna de las investigaciones de este informe”.
[1] https://www.tesla.com/autopilot
[2] https://www.blackhat.com/us-18/briefings/schedule/#over-the-air-how-we-remotely-compromised-the-gateway-bcm-and-autopilot-ecus-of- tesla-coches-10806
[3] https://keenlab.tencent.com/zh/2017/04/01/remote-attack-on-mi-ninebot/
[4] https://keenlab.tencent.com/en/2016/09/19/Keen-Security-Lab-of-Tencent-Car-Hacking-Research-Remote-Attack-to-Tesla-Cars/
[5] https://keenlab.tencent.com/en/2017/07/27/New-Car-Hacking-Research-2017-Remote-Attack-Tesla-Motors-Again/
[6] https://keenlab.tencent.com/zh/2018/05/22/New-CarHacking-Research-by-KeenLab-Experimental-Security-Assessment-of-BMW-Cars/