Incidentes Asociados
El 7 de mayo de 2016, un hombre de 40 años llamado Joshua Brown murió cuando su sedán Tesla Model S chocó con un camión con remolque que se cruzaba en su camino en la autopista US 27A, cerca de Williston, Florida. Casi tres años después, otro propietario de Tesla, Jeremy Beren Banner, de 50 años, también murió en una carretera de Florida en circunstancias inquietantemente similares: su Model 3 chocó con un camión con remolque que se cruzaba en su camino, cortando el techo en el proceso.
Había otra similitud importante: los investigadores descubrieron que ambos conductores habían estado usando el sistema avanzado de asistencia al conductor Autopilot de Tesla en el momento de sus respectivos accidentes.
El piloto automático es un sistema semiautónomo de nivel 2, según lo descrito por la Sociedad de Ingenieros Automotrices, que combina control de crucero adaptativo, asistencia para mantenerse en el carril, estacionamiento automático y, más recientemente, la capacidad de cambiar de carril automáticamente. Tesla lo anuncia como uno de los sistemas más seguros en la carretera hoy en día, pero las muertes de Brown y Banner plantean dudas sobre esas afirmaciones y sugieren que Tesla no ha abordado una debilidad importante en su tecnología insignia.
HAY GRANDES DIFERENCIAS ENTRE LOS DOS ACCIDENTES
Hay algunas grandes diferencias entre los dos choques. Por ejemplo, los autos de Brown y Banner tenían tecnologías de asistencia al conductor completamente diferentes, aunque ambos se llaman Autopilot. El piloto automático en el Modelo S de Brown se basó en la tecnología suministrada por Mobileye, una empresa emergente israelí desde que fue adquirida por Intel. La muerte de Brown fue en parte responsable de la separación de las dos compañías en 2016. El Model 3 de Banner estaba equipado con una versión de segunda generación de Autopilot que Tesla desarrolló internamente.
Eso sugiere que Tesla tuvo la oportunidad de abordar este llamado "caso límite" o circunstancia inusual, al rediseñar el piloto automático, pero hasta ahora no lo ha hecho. Después de la muerte de Brown, Tesla dijo que su cámara no reconoció el camión blanco contra un cielo brillante; la Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. (NHTSA) esencialmente descubrió que Brown no estaba prestando atención a la carretera y exoneró a Tesla. Determinó que configuró el control de crucero de su automóvil a 74 mph aproximadamente dos minutos antes del choque, y debería haber tenido al menos siete segundos para notar el camión antes de chocar contra él.
TESLA TUVO LA OPORTUNIDAD DE ABORDAR ESTE LLAMADO "CASO EDGE" AL REDISEÑAR EL PILOTO AUTOMÁTICO, PERO NO LO HA HECHO
Los investigadores federales aún tienen que tomar una determinación sobre la muerte de Banner. En un informe preliminar publicado el 15 de mayo, la Junta Nacional de Seguridad del Tráfico (NTSB) dijo que Banner activó el piloto automático unos 10 segundos antes de la colisión. “Desde menos de 8 segundos antes del choque hasta el momento del impacto, el vehículo no detectó las manos del conductor en el volante”, dijo la NTSB. El vehículo viajaba a 68 mph cuando se estrelló.
En un comunicado, un portavoz de Tesla lo expresó de manera diferente, cambiando el pasivo "el vehículo no detectó las manos del conductor en el volante" por el más activo "el conductor inmediatamente quitó las manos del volante". El vocero no respondió a las preguntas de seguimiento sobre lo que ha hecho la empresa para abordar este problema.
En el pasado, el CEO de Tesla, Elon Musk, culpó de los accidentes que involucraban al piloto automático al exceso de confianza del conductor. “Cuando hay un accidente grave, casi siempre, de hecho, tal vez siempre, se trata de un usuario experimentado, y el problema es más de autocomplacencia”, dijo Musk el año pasado.
El último accidente se produce en un momento en que Musk está promocionando los planes de Tesla para implementar una flota de taxis autónomos en 2020. “Dentro de un año, tendremos más de un millón de autos con conducción autónoma completa, software, todo”, dijo. en un evento reciente del "Día de la Autonomía" para inversores.
Esos planes serán inútiles si los reguladores federales deciden tomar medidas enérgicas contra el piloto automático. Los defensores de los consumidores están pidiendo al gobierno que abra una investigación sobre el sistema avanzado de asistencia al conductor. “O Autopilot no puede ver el lado ancho de un camión de 18 ruedas, o no puede reaccionar de manera segura”, dijo David Friedman, vicepresidente de defensa de Consumer Reports, en un comunicado. “Este sistema no puede navegar de manera confiable en situaciones comunes de la carretera por sí solo y no mantiene al conductor ocupado exactamente cuando más lo necesita”.
“O EL PILOTO AUTOMÁTICO NO PUEDE VER EL LADO ANCHO DE UN VEHÍCULO DE 18 RUEDAS, O NO PUEDE REACCIONAR CON SEGURIDAD A ÉL”
Los expertos en seguridad automotriz señalan que los sistemas de control de crucero adaptativo como el piloto automático dependen principalmente del radar para evitar chocar con otros vehículos en la carretera. El radar es bueno para detectar objetos en movimiento pero no objetos estacionarios. También tiene dificultad para detectar objetos como un vehículo que cruza la calle y no se mueve en la dirección de viaje del automóvil.
El software del vehículo a veces ignora las salidas de radar de los objetos detectados para lidiar con la generación de "falsos positivos", dijo Raj Rajkumar, profesor de ingeniería eléctrica e informática en la Universidad Carnegie Mellon. Sin estos, el radar "vería" un paso elevado y lo informaría como un obstáculo, lo que haría que el vehículo pisara los frenos.
En el lado de la ecuación de la visión por computadora, los algoritmos que usan la salida de la cámara deben entrenarse para detectar camiones que son perpendiculares a la dirección del vehículo, agregó. En la mayoría de las situaciones en la carretera, hay vehículos al frente, atrás y al costado, pero un vehículo perpendicular es mucho menos común.
“Esencialmente, el mismo incidente se repite después de tres años”, dijo Rajkumar. “Esto parece indicar que estos dos problemas aún no se han abordado”. El aprendizaje automático y la inteligencia artificial tienen limitaciones inherentes. Si los sensores “ven” lo que nunca o rara vez han visto antes, no saben cómo manejar esas situaciones. “Tesla no está manejando las conocidas limitaciones de la IA”, agregó.
Tesla aún no ha explicado en detalle cómo pretende solucionar este problema. La compañía publica un informe de seguridad trimestral sobre la seguridad de Autopilot, pero ese informe tiene pocos detalles. Eso significa que los expertos en la comunidad de investigación no tienen datos concretos que les permitan comparar la eficacia de Autopilot con otros sistemas. Solo Tesla tiene una comprensión del 100 por ciento de la lógica y el código fuente de Autopilot, y guarda esos secretos de cerca.
“Necesitamos datos de exposición detallados relacionados con cuándo, dónde y en qué condiciones los conductores aprovechan el piloto automático”, dijo Bryan Reimer, científico investigador del Centro de Transporte y Logística del MIT, en un correo electrónico a The Verge, “para que podamos comenzar para cuantificar mejor el riesgo con respecto a otros vehículos de similar edad y clase.”
Otros propietarios de Tesla han hablado sobre el problema del piloto automático de percibir camiones en el camino del vehículo. Un usuario anónimo de Twitter que usa el identificador @greentheonly “hackeó” un Model X y publica observaciones en Twitter y YouTube. Hicieron esto para “observar el Autopilot desde adentro”, dijeron en un correo electrónico a The Verge. En marzo, su Model X encontró un camión con remolque perpendicular a su camino, similar tanto a Brown como a Banner. El vehículo habría intentado pasar por debajo del camión si el conductor no hubiera intervenido.
Según los datos de @greentheonly, el semirremolque no estaba marcado como obstáculo. Pero decidieron no tentar a la suerte: “No intenté acercarme al tráiler y ver si alguna de las entradas cambiaría (pero apuesto a que no)”.