Incidentes Asociados

Después de hacer repetidas declaraciones sobre una investigación gubernamental en curso sobre un accidente fatal que involucró a Autopilot, Tesla fue expulsada de la investigación que lleva a cabo la Junta Nacional de Seguridad en el Transporte por violar su acuerdo legal con la NTSB. Se suma al drama el hecho de que Tesla pudo haber mentido antes de que la NTSB anunciara públicamente la decisión, diciendo que abandonó voluntariamente la investigación porque no le permitiría a Tesla "divulgar información sobre el piloto automático al público". El jueves por la tarde, Tesla emitió otra declaración refutando la versión de los hechos de la NTSB y afirmando nuevamente que abandonaron la investigación por su propia voluntad).
Las declaraciones de Tesla empaquetan ingeniosamente la salida de la empresa de la investigación como una cuestión de libertad de información. Pero las declaraciones de la compañía sobre los incidentes del piloto automático, incluso en sus investigaciones más recientes, han culpado constantemente a los conductores en lugar de investigar su propia tecnología.
El mes pasado, un Tesla Model X se estrelló contra una mediana de concreto cerca de Mountain View, California, matando al conductor Walter Huang, lo que provocó la investigación de la NTSB. En un comunicado una semana después del accidente, Tesla reconoció que Huang estaba usando el piloto automático durante el accidente, pero lo culpó directamente de su propia muerte, diciendo:
El conductor había recibido varias advertencias prácticas visuales y una audible anteriormente en el viaje y no se detectaron las manos del conductor en el volante durante seis segundos antes de la colisión. El conductor tenía alrededor de cinco segundos y 150 metros de vista sin obstrucciones del divisor de concreto con el atenuador de choque aplastado, pero los registros del vehículo muestran que no se tomó ninguna medida.
En ninguna parte de la publicación, Tesla reconoció por qué su función de piloto automático había dirigido el automóvil para que chocara contra una barrera de concreto, excepto que "la distancia de seguimiento del control de crucero adaptativo" estaba "ajustada al mínimo".
En otro accidente fatal en mayo de 2016, un camión con remolque cruzó frente a un Tesla usando el piloto automático. El Tesla no se rompió y se estrelló contra el semirremolque, arrancando efectivamente el techo del auto y matando al conductor. Tesla reconoció el papel del piloto automático en el accidente y dijo que "ni el piloto automático ni el conductor notaron el lado blanco del remolque del tractor contra un cielo brillantemente iluminado, por lo que no se aplicó el freno". A pesar de esto, Tesla finalmente culpó al conductor:
Cuando los conductores activan el piloto automático, el cuadro de reconocimiento explica, entre otras cosas, que el piloto automático "es una función de asistencia que requiere que mantenga las manos en el volante en todo momento" y que "necesita mantener el control y la responsabilidad de su vehículo". ' mientras lo usa.
En otro accidente de Autopilot en enero, un Tesla se estrelló contra un camión de bomberos estacionado. La respuesta de Tesla fue que el piloto automático "está diseñado para usarse solo con un conductor totalmente atento".
Las dos muertes y el accidente encajan en una serie de accidentes y videos virales que muestran las imperfecciones de la tecnología de piloto automático de Tesla.
El escrutinio público de los accidentes se ha reservado comparativamente a la reacción obtenida por la única muerte causada por el automóvil autónomo de Uber, y las reacciones de Tesla han sido mucho más defensivas.
Un aspecto clave de las respuestas de Tesla a sus accidentes de Autopilot es el hecho de que cumple con los requisitos de un sistema de automatización de nivel 2 en el marco de automatización de 6 niveles de la Sociedad de Ingenieros Automotrices. Un sistema de nivel 2 administrará la velocidad y la dirección en ciertas condiciones, pero requiere que los conductores presten atención y estén listos para tomar el control: Tesla intenta hacer cumplir esto alertando al conductor cuando sus manos no están en el volante y eventualmente desactivando el piloto automático si un las manos de los conductores no están en el volante el tiempo suficiente (aunque los conductores han descubierto formas de hackear esto). Un automóvil de nivel 3 solo alertará al conductor cuando detecte una situación que no pueda manejar.
Tesla ha utilizado convenientemente este hecho en sus respuestas a choques de alto perfil, pero también ha anunciado repetidamente que las capacidades de conducción autónoma de sus automóviles son superiores al nivel 2, lo que envía señales contradictorias a los conductores y al público.
En su sitio web de Autopilot, Tesla promociona "Hardware autónomo completo en todos los automóviles", a pesar de su insistencia en que el software solo está destinado a la asistencia.
En la misma página, un video muestra un Tesla operado sin manos, detectando su entorno. Una leyenda dice: "La persona en el asiento del conductor solo está allí por razones legales. No está haciendo nada. El automóvil se conduce solo".
Solo en la parte inferior de la página, Tesla especifica que la "Capacidad de conducción autónoma total" es un complemento de software que aún no se ha lanzado y no se aplica al "Piloto automático mejorado" existente de Tesla.
A la confusión se suma el hecho de que el CEO de Tesla, Elon Musk, ha dicho repetidamente que los autos de Tesla en el mercado que están equipados con Autopilot eventualmente podrán lograr una "autonomía de nivel aproximadamente humano" y posiblemente podrían facilitar una "automatización completa". En 2016 c