Incidentes Asociados

ELLOS son uno de los temas más discutidos en tecnología, pero últimamente lo han sido por razones equivocadas. Una serie de accidentes que involucran autos sin conductor ha generado dudas sobre la seguridad de estos nuevos vehículos futuristas, que se están probando en las vías públicas de varios estados de Estados Unidos. En marzo de 2018, un vehículo Uber experimental, que operaba en modo autónomo, atropelló y mató a un peatón en Tempe, Arizona, el primer accidente fatal de este tipo. El 24 de mayo, la Junta Nacional de Seguridad en el Transporte de Estados Unidos (NTSB) emitió su informe preliminar sobre el accidente. ¿Qué causó el accidente y qué dice sobre la seguridad de los vehículos autónomos (AV) en general?
Los sistemas informáticos que impulsan los automóviles constan de tres módulos. El primero es el módulo de percepción, que toma información de los sensores del automóvil e identifica objetos cercanos relevantes. El auto de Uber, un Volvo XC90 modificado, estaba equipado con cámaras, radar y LIDAR (una variante de radar que usa pulsos de luz invisibles). Las cámaras pueden detectar características como marcas de carril, señales de tráfico y semáforos. El radar mide la velocidad de los objetos cercanos. LIDAR determina la forma del entorno del automóvil con gran detalle, incluso en la oscuridad. Las lecturas de estos sensores se combinan para construir un modelo del mundo, y los sistemas de aprendizaje automático luego identifican automóviles, bicicletas, peatones, etc., cercanos. El segundo módulo es el módulo de predicción, que pronostica cómo se comportará cada uno de esos objetos en los próximos segundos. ¿Ese coche cambiará de carril? ¿Ese peatón entrará en la carretera? Finalmente, el tercer módulo utiliza estas predicciones para determinar cómo debe responder el vehículo (la llamada "política de conducción"): acelerar, reducir la velocidad o girar a la izquierda o a la derecha.
Reciba nuestro boletín diario Actualice su bandeja de entrada y obtenga nuestro Despacho diario y Selecciones del editor.
De estos tres módulos, el más difícil de construir es el módulo de percepción, dice Sebastian Thrun, profesor de Stanford que solía liderar el esfuerzo de vehículos autónomos de Google. Las cosas más difíciles de identificar, dice, son elementos que rara vez se ven, como escombros en la carretera o bolsas de plástico que vuelan por una carretera. En los primeros días del proyecto AV de Google, recuerda, “nuestro módulo de percepción no podía distinguir una bolsa de plástico de un niño volador”. Según el informe de la NTSB, el vehículo de Uber tuvo problemas para identificar a Elaine Herzberg mientras conducía su bicicleta por una carretera de cuatro carriles. Aunque estaba oscuro, el radar del automóvil y LIDAR la detectaron seis segundos antes del choque. Pero el sistema de percepción se confundió: la clasificó como un objeto desconocido, luego como un vehículo y finalmente como una bicicleta, cuya trayectoria no podía predecir. Solo 1,3 segundos antes del impacto, el sistema de conducción autónoma se dio cuenta de que era necesario frenar de emergencia. Pero el sistema de frenado de emergencia incorporado del automóvil se había desactivado para evitar conflictos con el sistema de conducción autónoma; en cambio, se espera que un operador de seguridad humana en el vehículo frene cuando sea necesario. Pero el operador de seguridad, que había estado mirando la pantalla del sistema de conducción autónoma, no frenó a tiempo. La Sra. Herzberg fue atropellada por el vehículo y posteriormente murió a causa de sus heridas.
Por lo tanto, la causa del accidente tiene muchos elementos, pero en última instancia es una falla en el diseño del sistema. Cuando su módulo de percepción se confunde, un AV debería reducir la velocidad. Pero el frenado inesperado puede causar sus propios problemas: en el pasado, los AV confusos han sido chocados por detrás (por conductores humanos) después de reducir la velocidad repentinamente. De ahí la delegación de la responsabilidad del frenado a los conductores de seguridad humana, que están ahí para atrapar el sistema cuando un accidente parece inminente. En teoría, agregar un controlador de seguridad para supervisar un sistema imperfecto garantiza que el sistema sea seguro en general. Pero eso solo funciona si están atentos a la carretera en todo momento. Uber ahora está revisando sus procedimientos y ha suspendido todas las pruebas de sus AV; no está claro cuándo, o incluso si, se permitirá reanudar las pruebas. Otros fabricantes de AV, que analizaron el video del accidente de Tempe, dicen que sus sistemas habrían frenado para evitar una colisión. A largo plazo, los vehículos autónomos prometen ser mucho más seguros que los coches normales, dado que el 94 % de los accidentes se deben a errores del conductor. Pero en este momento, Uber y los fabricantes de AV tienen la responsabilidad de asegurarle al público que están haciendo todo lo posible para evitar accidentes en el camino hacia un futuro más seguro.
Excavar más hondo
Cómo es viajar en un Uber autónomo (marzo de 2018)
Por qué los autos sin conductor serán en su mayoría compartidos, no en propiedad (marzo de 2018)
Reinventar las ruedas: un informe especial sobre los coches autónomos (marzo de 2018)