Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2073

Incidentes Asociados

Incidente 3534 Reportes
Tesla on Autopilot Crashed into Trailer Truck in Florida, Killing Driver

Loading...
El piloto automático de Tesla se dirige a juicio
bloomberg.com · 2022

Diez segundos antes de que el Tesla Model 3 de Jeremy Banner chocara contra la parte inferior de un camión con remolque, encendió el piloto automático. El accidente mató al padre de tres hijos cuando se cortó la parte superior de su automóvil, por lo que no hay forma de saber exactamente qué sucedió ese viernes de marzo hace tres años. Pero una investigación realizada por la Junta Nacional de Seguridad en el Transporte encontró que Banner probablemente no vio el camión cruzando una carretera de dos carriles en Florida camino al trabajo. La función de asistencia al conductor de Tesla aparentemente tampoco lo vio. Al menos no a tiempo para salvar la vida del hombre de 50 años.

Un tribunal en el condado de Palm Beach fijó una fecha de febrero para que un jurado escuche el testimonio sobre quién tuvo la culpa, el primero de potencialmente docenas de juicios por colisión de Autopilot. Hasta entonces, espere que la Twitteresfera se encienda con argumentos apasionados sobre una pregunta que se ha debatido durante años: ¿el mismo nombre Autopilot adormece a los conductores con una falsa sensación de seguridad de que sus autos se conducirán solos? El juicio ofrece "uno de esos momentos decisivos en los que tenemos mucha atención pública sobre un veredicto, si el jurado simpatiza con el conductor y quiere enviar un mensaje a Tesla", dice Bryant Walker Smith, profesor de derecho en la Universidad de Carolina del Sur.

Cualquiera que sea el veredicto, agregará urgencia a los llamados de legisladores y defensores de la seguridad automotriz para una intervención regulatoria. La represión ha tardado en materializarse durante los ocho años de Tesla [experimento con conducción automatizada](https://www.bloomberg.com/news/features/2019-10-09/tesla-s-autopilot-could-save-the -vidas-de-millones-pero-matará-a-algunas-personas-primero), pero la idea ha cobrado impulso bajo la administración de Biden, con la Administración Nacional de Seguridad del Tráfico en las Carreteras realizando investigaciones en varios frentes.

El director ejecutivo, Elon Musk, insiste en que los Tesla son los autos más seguros jamás fabricados, pero el juicio contará con un desfile de expertos en tecnología que testificarán sobre los peligros de comercializar la asistencia al conductor de manera que genere un exceso de confianza. “Una gran parte de la importancia del caso es que en realidad se lleva a cabo en un foro público”, dice Michael Brooks, abogado principal del Centro para la Seguridad Automotriz, un grupo de defensa del consumidor.

Tesla ha dicho durante mucho tiempo que tiene claros los límites del sistema, citando un lenguaje fuerte en sus manuales del conductor. Y el sitio web de la compañía dice que las características del piloto automático "requieren la supervisión activa del conductor y no hacen que el vehículo sea autónomo". Musk insiste en que el uso adecuado del piloto automático por parte de conductores atentos ha salvado muchas más vidas de las que se han perdido en accidentes. “En la mente de los inversores, Tesla ya tiene su defensa, y siempre la han creído: los humanos son malos conductores”, dice Gene Munster, socio gerente de Loup Ventures, una firma de inversión que sigue a Tesla pero que no está relacionada con el caso.

La NHTSA dice que al menos 18 muertes pueden estar relacionadas con la tecnología de asistencia al conductor. La agencia ha investigado casi 200 choques que involucran vehículos que utilizan la función, incluidos algunos en los que los Tesla chocaron por detrás con autos de policía o camiones de bomberos estacionados a lo largo de las carreteras. Y el Departamento de Vehículos Motorizados de California acusó en agosto a la compañía de publicidad engañosa, diciendo que engaña a los clientes haciéndoles pensar que el piloto automático y las funciones mejoradas de "autoconducción completa" son más sofisticadas de lo que son.

Lake Lytal, abogado de la familia de Banner, considera que el juicio es una oportunidad “para finalmente responsabilizar a Tesla y Elon Musk por usar las vías públicas de nuestro país como campo de pruebas para que esta empresa intente reparar su sistema de piloto automático defectuoso, que saben ha matado y seguirá matando a sus clientes”. Tesla y su equipo legal no respondieron a las solicitudes de comentarios.

Musk es quisquilloso con las críticas públicas a Autopilot. En 2018, colgó a Robert Sumwalt, entonces presidente de la NTSB, después de que Sumwalt lo reprendió por publicaciones de blog que culpaban al conductor de un Model X por un accidente fatal. En octubre pasado, cuando el presidente Joe Biden nombró a la profesora de la Universidad de Duke Mary Cummings como asesora principal de seguridad de la NHTSA, Musk y miles de [fanáticos de Tesla protestaron] (https://www.bloomberg.com/news/articles/2021-10- 20/tesla-fans-musk-in-uproar-as-nhtsa-taps-biased-safety-adviser) en Twitter debido a su historial como escéptica de Autopilot, haciendo circular una petición acusándola de parcialidad.

Más recientemente, estalló un furor por un video viral de YouTube de un Tesla atropellando a un maniquí de prueba de choque del tamaño de un niño mientras supuestamente operaba en modo de conducción autónoma total. En respuesta, algunos propietarios de Tesla publicaron videos de sus vehículos deteniéndose de manera segura frente a niños reales, lo que llevó a la NHTSA a emitir una [advertencia de "no intente esto en casa"] (https://www.bloomberg.com/news/ artículos/2022-08-17/no-use-a-sus-hijos-para-probar-las-características-de-seguridad-de-tesla-advertencias-de-la-nhtsa).

La prueba contará con ingenieros de Tesla y expertos externos. Estos incluyen a [Christopher “CJ” Moore](https://www.bloomberg.com/news/articles/2021-10-21/tesla-engineer-who-quit-wanted-as-witness-in-key-autopilot- juicio), un ex miembro del equipo ejecutivo de Autopilot de la compañía, que ahora trabaja para [Apple Inc.] (https://www.bloomberg.com/quote/AAPL:US) Después de entrevistar a Moore el año pasado, los funcionarios del DMV de California concluyeron que algunos de los tuits de Musk capacidades exageradas del piloto automático. Una persona de la que el jurado probablemente no escuchará es Musk. Un juez dictaminó que el empresario multimillonario no tenía que rendir declaración y rechazó el argumento de los Banner de que Musk tiene un "conocimiento único" de los temas del caso.

Lo más problemático para Tesla puede ser lo que revela el procedimiento sobre las deficiencias de la tecnología. El público podrá ver por primera vez la gran cantidad de datos que recopila Tesla, incluida información granular sobre Autopilot, según Dana Taschner, abogada de lesiones personales que ha representado a víctimas de accidentes atribuidos a defectos. “Los ingenieros de Tesla estarán en el estrado testificando bajo juramento sobre datos y estadísticas que están muy, muy cuidadosamente guardados”, dice.

La prueba también tiene ramificaciones para empresas como Apple y Waymo de Alphabet Inc., que están desarrollando vehículos autónomos, y fabricantes de automóviles convencionales como BMW y Mercedes-Benz que están invirtiendo fuertemente en automóviles con funciones de conducción automatizada. Para esos fabricantes y sus innumerables proveedores, el juicio es motivo de preocupación debido a lo que dice sobre la responsabilidad.

La demanda de la familia Banner ha sus debilidades, particularmente una investigación del accidente por parte de la NTSB que encontró que había culpa para repartir. Los investigadores dijeron que el conductor del camión no había cedido el derecho de paso y culparon a Banner por su "falta de atención debido a la excesiva confianza en la automatización". Pero en un informe de 2020, la agencia criticó la tecnología de Tesla por monitorear y hacer cumplir de manera insuficiente la participación del conductor. “El sistema de piloto automático no envió una advertencia visual o audible al conductor para que volviera a poner las manos en el volante”, dice el informe.

La NTSB llegó a conclusiones similares en un informe de 2017 sobre un accidente notablemente similar en el norte de Florida, que también involucró un choque fatal contra un camión que los sensores del automóvil no detectaron. En octubre pasado, la agencia reprendió a Tesla por no responder a sus recomendaciones de 2017, incluida la limitación de dónde se puede activar el piloto automático y garantizar que los conductores presten atención mientras usan la función.

Los hallazgos de la NTSB sobre la causa del accidente de Banner no se permiten como evidencia según la ley federal. Pero los expertos independientes podrían usar el informe como una "hoja de ruta" para restablecer las mismas conclusiones, dice Peter Goelz, exdirector gerente de la NTSB. Para Musk, lo que está en juego no podría ser mayor. Después de todo, ha dicho que la tecnología de conducción autónoma total es la diferencia entre que Tesla “valga básicamente cero” y convertirla en una de las corporaciones más valiosas del mundo. “La tecnología es tan fundamental para el atractivo del automóvil”, dice Goelz. “No creo que Tesla vaya a ceder ni un milímetro”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd