Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2116

Incidentes Asociados

Incidente 3379 Reportes
Tesla Model S on ACC Crashed into Tree in Texas, Killing Two People

Loading...
Accidente fatal de Tesla en Texas: lo que sabemos y lo que no
forbes.com · 2021

Ha habido mucha atención sobre un [accidente mortal en un Tesla Model S](https://www.houstonchronicle.com/news/houston-texas/transportation/article/Two-federal-agencies-join-probe -of-fiery-fatal-16113076.php) en los suburbios de Houston. Esto se debe a que la policía informó que no había nadie en el asiento del conductor del vehículo, pero se encontraron los restos de dos hombres en el asiento del pasajero y el asiento trasero. La policía declaró que estaba segura de que nadie estaba en el asiento del conductor en el momento del accidente, lo que generó especulaciones inmediatas sobre el papel del piloto automático Tesla [TSLA] (https://www.forbes.com/companies/tesla) o su habitual Proyecto de prueba de conducción autónoma “Full” street beta.

Elon Musk de Tesla ha declarado que Autopilot no estuvo involucrado en este accidente, lo que debería ser el final de la historia, ya que no tiene acceso a las opiniones, sino a los registros que carga el automóvil inmediatamente después de un choque. A pesar de esto, existe un gran interés, incluida la llegada de investigadores de la Junta Nacional de Seguridad en el Transporte, que ha investigado muchos accidentes de Tesla.

Estas son algunas de las cosas que se sabe o se cree sobre este accidente:

  1. Ocurrió en un pequeño callejón sin salida llamado “[Hammock Dunes Place](https://www.google.com/maps/place/Hammock+Dunes+Pl,+The+Woodlands+Carlton+Woods+ Creekside,+TX+77389/@30.1553482,-95.5303014,19.5z/data=!4m5!3m4!1s0x8647319773680769:0x5795d75d45dcc469!8m2!3d30.1548352!4d-95.5313222)” en el suburbio rico del condado de Harris, TX. Esta calle es corta. Según los informes, la pareja salió de la casa al final de la calle y se estrelló contra los árboles a solo 600 pies por el camino de su entrada.
  2. Como se señaló, Elon Musk dijo: “Los registros de datos recuperados hasta ahora muestran que el piloto automático no estaba habilitado y este automóvil no compró FSD. Además, el piloto automático estándar requeriría que se activaran las líneas de los carriles, algo que esta calle no tenía”.
  3. El auto se incendió. Los bomberos pudieron apagar el fuego rápidamente, pero como los incendios de las baterías de litio pueden volver a encenderse, continuaron vertiendo agua sobre el paquete de baterías para enfriarlo durante 4 horas, usando 23,000 galones. Los informes de que se necesitó toda esa agua para apagar el fuego eran incorrectos. Los daños por fuego fueron extensos.
  4. Los informes sugieren que el viaje fue para mostrar el piloto automático. El propietario hizo retroceder el automóvil fuera del camino de entrada y luego se estrelló a poca distancia por la carretera. El propietario fue encontrado en el asiento trasero según los informes.
  5. La policía dice que está segura de que nadie estaba en el asiento del conductor. Se basan en la opinión de reconstruccionistas de accidentes profesionales.
  6. Es posible desocupar el asiento del conductor después de activar el piloto automático. Uno debe dejar el cinturón de seguridad abrochado, por lo que normalmente esto debe hacerse antes de sentarse en el asiento. Si bien un Tesla tiene sensores de peso del asiento y una cámara que podría detectar un asiento vacante, en la actualidad estos no afectan al piloto automático.
  7. El piloto automático necesita ver líneas de carril para activarse, que no están presentes en esta calle. Sin embargo, no es raro que piense erróneamente que ve esas líneas, y permanecerá en piloto automático después de eso por un tiempo. (Sin embargo, los registros de Tesla indican que no estaba en piloto automático).

ACTUALIZACIÓN: La llamada de ganancias de Tesla agregó algunas actualizaciones: ([Vea los detalles completos aquí](https://www.forbes.com/sites/bradtempleton/2021/04/28/fatal-texas-tesla-crash- se vuelve-cuarto-cerrado-asesinato-misterio-con-nuevas-declaraciones-tesla/).)

  1. El piloto automático (Autogiro) no estaba activado y no lo estará en esa carretera
  2. Se activó el control de crucero adaptativo. Requiere que el cinturón de seguridad esté abrochado y que el automóvil conduzca a más de 5 mph. En la distancia al choque, aceleró a 30 mph.
  3. En una declaración cuyo significado no está claro, se afirmó que ACC “[desenganchó el automóvil lentamente para detenerse por completo] (https://youtu.be/cZhi9h-QZXE?t=1588)” cuando se desabrochó el cinturón de seguridad. .”
  4. Todos los cinturones de seguridad estaban desabrochados en el vehículo accidentado.
  5. El volante se deformó de manera consistente con un conductor golpeándolo.

Cuando un Tesla se estrella, inmediatamente carga la mayor cantidad de datos posible del accidente. No sabemos qué tan rápido interfirió el fuego con la carga. La declaración de Musk sobre "registros recuperados hasta ahora" es más equívoca de lo que normalmente sería. Esto puede referirse a los registros más completos que se encuentran en la caja negra del automóvil que debería haber sobrevivido al incendio y estaría en manos de la policía. No obstante, los registros de Tesla revelan no solo si el piloto automático estaba encendido en el momento del accidente, sino también si lo estaba antes, junto con las acciones del conductor.

Cuando la NTSB está involucrada, la mayoría de las veces los involucrados trabajan con la NTSB. Sin embargo, la NTSB requiere que las partes permanezcan en silencio hasta que se publique su investigación, lo que puede durar hasta 2 años. Tesla se ha rebelado contra tal retraso. No quieren quedarse en silencio y fueron retirados de una investigación anteriormente por esto. A la NTSB no le gusta Elon Musk en este momento. Los informes indican que Tesla no será parte de esta investigación, lo que los dejaría en libertad de hacer declaraciones públicas más allá de lo que se ha hecho.

Todos los Tesla cuentan con un "Control de crucero adaptativo" que no dirige el automóvil, pero lo mantiene en movimiento. El ACC intenta detectar obstáculos frente al automóvil, pero está lejos de ser perfecto para detectar objetos estacionarios, incluidos árboles. Es posible que el auto estuviera en modo ACC. Como cualquier control de crucero, si no conduce, puede salirse de la carretera en una curva y chocar contra un árbol. Activar el piloto automático y el ACC es similar: en el modelo S, tira de la palanca del piloto automático dos veces para el piloto automático y una vez para el ACC al límite de velocidad local. Sin embargo, el ACC no se activa cuando se detiene a menos que haya otro automóvil detenido frente a usted.

En otras palabras, incluso si el propietario se sentó en el asiento trasero y activó el ACC por error, esto sería bastante difícil de hacer. Cuando se trata del uso de ACC u otros factores en este accidente, todo lo que tenemos es especulación. Tesla debería saber si ACC se activó o intentó activarse, pero no ha revelado nada al respecto. De hecho, incluso si los registros de Elon Musk son incorrectos, y de alguna manera el automóvil entró en modo de piloto automático en esta pequeña calle, el propietario del automóvil claramente lo estaba usando mal de una manera bastante obvia. El piloto automático de Tesla, a diferencia de su versión beta "FSD", no está diseñado ni se espera que funcione en una calle como esta, por lo que no debe haber controversia sobre su función, solo sobre su existencia.

Una opción es una demostración equivocada que salió mal. Quizás el propietario pensó que había activado el piloto automático o el ACC y luego intentó pisar el acelerador con una pértiga desde el asiento trasero. Eso parece una cosa notablemente estúpida, particularmente con ACC. No es imposible que haya pisado el pedal hasta el fondo, y el automóvil aceleró de la manera muy rápida que puede hacerlo el Tesla, hacia el árbol.

Es posible que el equipo de reconstrucción del accidente esté equivocado y que alguien estaba en el asiento del conductor y después del choque pudo meterse en el asiento del pasajero o en el asiento trasero. Eso parece difícil, y llegan a su conclusión a partir de un examen sobre el terreno y tienen mejor información.

ACTUALIZACIÓN: La declaración de Tesla dice que, de hecho, ACC se activó, pero sigue siendo confuso cómo se activó. La declaración implica que se activó mientras el automóvil estaba en movimiento, pero se desactivó cuando se desabrochó el cinturón de seguridad. No está muy claro qué significa que el ACC detuviera el automóvil desde que se estrelló violentamente.

¿Por qué el dueño fue tan tonto?

Independientemente de si el propietario pudo activar el piloto automático o el ACC o simplemente cometió un error al intentar pisar el acelerador, la verdadera pregunta sobre este accidente es ¿qué hizo que alguien hiciera algo tan fatalmente tonto? Esta ha sido la pregunta central en torno al despliegue de estos sistemas por parte de Tesla. Utilizados correctamente, son herramientas útiles. Conducir con Autopilot tiene un nivel de seguridad similar al de conducir sin él. ([No mucho más seguro, como afirma engañosamente Tesla](https://www.forbes.com/sites/bradtempleton/2020/10/28/new-tesla-autopilot-statistics-show-its-almost-as-safe- conducir-con-como-sin/).) El problema surge porque las personas deciden, contra todas las advertencias, que es mejor de lo que es, y lo usan mal.

Este caso es probablemente solo un ejemplo muy extremo de esa confianza equivocada y mal uso. Es posible que nunca sepamos qué había en la mente de los difuntos.

Tesla se ha enfrentado a menudo a críticas por dejar la decisión en manos del conductor. Podrían detectar si alguien está sentado en el asiento. Podrían, como lo hacen General Motors GM y otras compañías, detectar si el conductor mantiene la atención en la carretera con los ojos. (Tesla, en cambio, requiere que apliques algo de presión en el volante de manera regular para asegurarte de que estás prestando atención). Tesla podría prohibir la activación de sus sistemas en todas las calles excepto en las aprobadas, como lo hacen algunos fabricantes de automóviles.

Es una pregunta moral abierta cuánto deber tiene un fabricante de automóviles para hacer cumplir el buen comportamiento por parte de los conductores. Puede que nunca resolvamos eso.

Herramientas como Autopilot surgieron como evolución del control de crucero. Es muy obvio que si no presta mucha atención al control de crucero normal, se estrellará. Con el control de crucero adaptativo, puede salirse con la suya sin mirar al automóvil que tiene delante, pero aún así debe mantener su automóvil en el carril. Es un sistema superior, pero debido a que inspira más confianza, puede inspirar más mal uso. El piloto automático es aún superior e inspira mucha más confianza y más posibles usos indebidos. Nunca pensaríamos en decirles a las personas que fabrican control de crucero o ACC que necesitan hacer cumplir las reglas a los conductores. Ese producto no es lo suficientemente bueno como para confiar demasiado. Ciertamente, hay una ironía de que cuanto mejor haces un producto, peor es, cuando analizas el tema del riesgo de exceso de confianza.

Tesla no quiere ser una niñera para sus clientes, y sus clientes tienden a no querer eso tampoco. Pero también obtendrían un mejor historial de seguridad si hicieran el esfuerzo de ser una niñera muy permisiva, que permite a los clientes hacer lo que realmente desean hacer, pero reduce cuando hacen las cosas por error.

En este momento, para usar el piloto automático, Tesla explica lo que no puede hacer y te hace aceptar que lo entiendes. El problema es que el mundo ha llegado a aprender a ignorar las advertencias "repetitivas" que vemos todo el tiempo. Si bien es bueno tener la advertencia, las advertencias que se ignoran de forma rutinaria no son muy valiosas. Quiere advertencias que solo lleguen cuando haya una razón real, con pocas falsas alarmas.

Como tal, Tesla debería considerar usar su cámara para asegurarse de que se preste atención a la carretera. Sin embargo, podría incluir una opción que permita a las personas desactivar eso y volver a la detección de torque en el volante. Entonces podría poner una advertencia real, hacer que vayan al concesionario y firmen un contrato asumiendo la responsabilidad de las consecuencias. Pocos lo harían, y podrían complacer a ambos maestros: aquellos que quieren que la tecnología que compran les obedezca solo a ellos, y aquellos que quieren ser bloqueados por sus propios errores.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd