Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2316

Loading...
Los piratas informáticos pueden enga�ñar a un Tesla para que acelere 50 millas por hora
technologyreview.com · 2020

No creas en los ojos mentirosos de tu auto.

Los piratas informáticos han manipulado varios autos Tesla para que aceleren 50 millas por hora. Los investigadores engañaron al sistema de cámara Mobileye EyeQ3 del automóvil al alterar sutilmente una señal de límite de velocidad al costado de una carretera de una manera que una persona que pasaba cerca casi nunca se daría cuenta.

Esta demostración de la empresa de ciberseguridad McAfee es el último indicio de que el aprendizaje automático antagónico puede arruinar potencialmente los sistemas de conducción autónomos, presentando un desafío de seguridad para aquellos que esperan comercializar la tecnología.

Los sistemas de cámara Mobileye EyeQ3 leen las señales de límite de velocidad y transmiten esa información a las funciones de conducción autónoma, como el control de crucero automático de Tesla, dijeron Steve Povolny y Shivangee Trivedi del equipo de Investigación de Amenazas Avanzadas de McAfee.

Los investigadores pegaron una pegatina diminuta y casi imperceptible en una señal de límite de velocidad. La cámara leyó el letrero como 85 en lugar de 35, y en las pruebas, tanto el Tesla Model X 2016 como el Model S de ese año aceleraron 50 millas por hora.

Esta es la última de una montaña cada vez mayor de investigaciones que muestran cómo los sistemas de aprendizaje automático pueden ser atacados y engañados en situaciones que amenazan la vida.

En un proceso de investigación de 18 meses, Trivedi y Povolny replicaron y ampliaron una serie de ataques de aprendizaje automático adversarios, incluido un estudio de la profesora de UC Berkeley, Dawn Song, que usó pegatinas para [engañar a un automóvil autónomo] (https:/ /www.technologyreview.com/s/613170/emtech-digital-dawn-song-adversarial-machine-learning/) haciéndole creer que una señal de alto era una señal de límite de velocidad de 45 millas por hora. El año pasado, los piratas informáticos engañaron a un Tesla para cambiar de carril en tráfico colocando calcomanías en la carretera en un ataque adversario destinado a manipular los algoritmos de aprendizaje automático del automóvil.

"La razón por la que estamos estudiando esto con anticipación es porque hay sistemas inteligentes que en algún momento en el futuro realizarán tareas que ahora son manejadas por humanos", dijo Povolny. "Si no somos muy previsores sobre cuáles son los ataques y no somos muy cuidadosos con la forma en que se diseñan los sistemas, entonces tienes una flota móvil de computadoras interconectadas que son una de las superficies de ataque más impactantes y atractivas que existen".

A medida que proliferan los sistemas autónomos, el problema se extiende a los algoritmos de aprendizaje automático mucho más allá de los vehículos: un [estudio] de marzo de 2019 (https://science.sciencemag.org/content/363/6433/1287) mostró que los sistemas médicos de aprendizaje automático fueron engañados para dando malos diagnósticos.

La investigación de McAfee se reveló tanto a Tesla como a Mobileye EyeQ3 el año pasado. Tesla no respondió a una solicitud de comentarios de MIT Technology Review, pero reconoció los hallazgos de McAfee y dijo que los problemas no se solucionarían en esa generación de hardware. Un portavoz de Mobileye restó importancia a la investigación al sugerir que el letrero modificado engañaría incluso a un humano para que leyera 85 en lugar de 35. La compañía no considera que engañar a la cámara sea un ataque y, a pesar del papel que juega la cámara en el control de crucero de Tesla, no fue diseñado para la conducción autónoma.

"La tecnología de vehículos autónomos no se basará solo en la detección, sino que también contará con el respaldo de otras tecnologías y datos, como el mapeo colaborativo, para garantizar la confiabilidad de la información recibida de los sensores de la cámara y ofrecer redundancias y seguridad más sólidas", dijo el dijo el portavoz de Mobileye en un comunicado.

Desde entonces, Tesla ha pasado a cámaras patentadas en modelos más nuevos, y Mobileye EyeQ3 ha lanzado varias versiones nuevas de sus cámaras que en las pruebas preliminares no fueron susceptibles a este ataque exacto.

Todavía hay una cantidad considerable de autos Tesla que funcionan con el hardware vulnerable, dijo Povolny. Señaló que los Tesla con la primera versión de hardware no se pueden actualizar a un hardware más nuevo.

"Lo que estamos tratando de hacer es realmente crear conciencia tanto para los consumidores como para los vendedores sobre los tipos de fallas que son posibles", dijo Povolny. "No estamos tratando de sembrar el miedo y decir que si conduce este , acelerará a través de una barrera, o para sensacionalizarlo".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd