Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 968

Incidentes Asociados

Incidente 5229 Reportes
Tesla on AutoPilot Killed Driver in Crash in Florida while Watching Movie

Loading...
Un nuevo informe sobre lo que sucedió en el fatal accidente del piloto automático de Tesla.
slate.com · 2017

El tercio superior de un Tesla Model S se cortó en una colisión fatal con un camión con remolque en Florida el año pasado. Robert VanKavelaar/Folleto vía Reuters

En mayo de 2016, sucedió lo inevitable: un conductor de Tesla murió en un accidente mientras su automóvil estaba en Autopilot, el impresionante pero controvertido software de conducción semiautónoma de la compañía.

Tesla y las autoridades informaron en ese momento que el Model S había "pasado por debajo" de un semirremolque que había estado girando a la izquierda a través del tráfico en una autopista de Florida, y el remolque cortó la parte superior del automóvil. Pero otros detalles eran incompletos, incluida la velocidad a la que iba el Tesla, cómo el conductor no pudo ver el semirremolque a plena luz del día y si el sistema de piloto automático del vehículo había advertido al conductor de alguna manera. El conductor del camión le dijo a Associated Press que había escuchado lo que sonaba como una película a todo volumen desde el automóvil después de que se detuvo más adelante en la carretera.

Esta semana, la Junta Nacional de Seguridad en el Transporte aclaró algunas preguntas persistentes cuando publicó los hallazgos fácticos de su investigación sobre el accidente. De hecho, el conductor había estado yendo con las manos libres, y no solo un poco. Según el informe de 538 páginas, el conductor había estado usando el piloto automático durante 37 minutos, de los cuales había puesto las manos en el volante durante un total de solo 25 segundos. Esto a pesar de siete advertencias visuales separadas del sistema, que mostraban el mensaje "Manos requeridas no detectadas". Claramente, el conductor estaba decidido a usar el piloto automático como si fuera un sistema de conducción totalmente autónomo, en lugar del mecanismo de seguridad que Tesla dice que debe ser.

Sin embargo, los informes de que el conductor había estado viendo una película de Harry Potter, tal vez en un reproductor de DVD en el tablero, parecen haber sido infundados. El principal testigo del accidente de la NTSB, que vio el automóvil de cerca después de que se detuvo, dijo que no se estaba reproduciendo ningún sistema de entretenimiento de audio o video. (El conductor del camión que le había dicho a AP que creía haber escuchado una película en el auto admitió que no estaba lo suficientemente cerca del vehículo para ver nada o estar seguro de lo que escuchó).

Es posible que nunca sepamos a qué estaba prestando atención el conductor del Model S en lugar de a la carretera en el momento de su fatal accidente. Sabemos que no tomó ninguna acción evasiva en absoluto. El informe de la NTSB dice que había configurado el software a una velocidad de crucero de 74 mph poco antes del accidente, y aparentemente todavía iba a esa velocidad cuando el automóvil golpeó el costado del remolque del camión.

Curiosamente, eso sugiere que el conductor del camión podría haber previsto el choque, si hubiera asumido que el automóvil mantendría una velocidad constante. El testigo dijo que el Model S era visible para el camión sobre la cima de una elevación en la autopista durante "varios segundos" antes de que el camión comenzara a girar a la izquierda. La implicación es que el conductor no vio venir el Model S o asumió, tal vez naturalmente, dado el tamaño y la visibilidad del camión, que el conductor del Tesla frenaría o cambiaría de carril para evitar la colisión. Eso parece una suposición segura cuando el conductor es humano, pero quizás menos cuando el conductor es un sistema automatizado. (Samuel English Anthony escribió convincentemente el año pasado sobre algunos de los problemas de expectativas que pueden surgir cuando los sistemas autónomos y los conductores humanos comparten la carretera).

Para ser claros, esto es una conjetura: el conductor del camión se negó a ser entrevistado por la NTSB y, según los informes, afirmó a la Patrulla de Carreteras de Florida que no vio venir al Tesla. Aún así, apunta a uno de los grandes problemas de los sistemas de conducción autónomos, que es que su comportamiento puede ser lógico en el papel pero sorprendente para otros conductores acostumbrados a compartir la carretera con otros humanos.

El informe de la NTSB aún no ofrece ningún análisis o conclusión sobre quién tuvo la culpa en el accidente. Eso vendrá en un seguimiento de esta presentación fáctica de la evidencia. Sin embargo, Reuters informa que el conductor del camión ha sido acusado de una violación del derecho de paso y debe comparecer ante el tribunal el miércoles.

La Administración Nacional de Seguridad del Tráfico en Carreteras concluyó su propia investigación en enero sin encontrar que el sistema de piloto automático de Tesla fuera un peligro para la seguridad. De hecho, estimó que el software reduce la probabilidad de un accidente en un 40 por ciento, lo cual es una estadística convincente a favor de Tesla. Pero esa fue una investigación más amplia de la seguridad general del sistema más que una evaluación de los detalles del fatal accidente de Florida. (Informé en agosto pasado sobre un caso particularmente dramático en el que el sistema pudo haber salvado a un conductor que sufrió una embolia pulmonar mientras estaba al volante).

Entonces, ¿qué podemos sacar del fatal accidente ahora que ha pasado un año y se han establecido los hechos clave?

Primero, fue un recordatorio aleccionador de que el software de conducción autónoma, a pesar de todos sus impresionantes logros, está lejos de ser perfecto. El piloto automático de Tesla puede haber salvado más vidas de las que ha costado, pero todavía hay circunstancias en las que es propenso a errores en formas que un conductor humano atento nunca lo haría.

Segundo, Tesla

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd