Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 210

Incidentes Asociados

Incidente 2022 Reportes
A Collection of Tesla Autopilot-Involved Crashes

Loading...
Conductor de Tesla muere en accidente con piloto automático activo, NHTSA investiga
theverge.com · 2016

Un Tesla Model S con el sistema de piloto automático activado estuvo involucrado en un accidente fatal, la primera fatalidad conocida en un Tesla donde el piloto automático estaba activo. La compañía reveló el accidente en una publicación de blog publicada hoy y dice que informó a la Administración Nacional de Seguridad del Transporte en las Carreteras (NHTSA) del incidente, que ahora está investigando.

El accidente ocurrió en una carretera dividida en el centro de Florida cuando un camión con remolque atravesó la carretera perpendicular al Model S. Ni el conductor, que según Tesla es el responsable final de las acciones del vehículo, incluso con el piloto automático activado, ni el automóvil notaron el gran plataforma o el remolque "contra un cielo muy iluminado" y no se aplicaron los frenos. En un tuit, el director ejecutivo de Tesla, Elon Musk, dijo que el radar del vehículo no ayudó en este caso porque "desconecta lo que parece una señal de tráfico elevada para evitar eventos de frenado falso".

Debido a la gran altura de manejo del tráiler, así como a su ubicación al otro lado de la carretera, el Model S pasó por debajo del tráiler y el primer impacto fue entre el parabrisas y el tráiler. Tesla escribe que si el automóvil hubiera impactado la parte delantera o trasera del remolque, incluso a alta velocidad, los sistemas de seguridad del automóvil "probablemente habrían evitado lesiones graves como lo han hecho en muchos otros incidentes similares".

"El piloto automático está mejorando todo el tiempo, pero no es perfecto y aún requiere que el conductor permanezca alerta".

El accidente ocurrió el 7 de mayo en Williston, Florida, con Joshua Brown, residente de Ohio de 40 años, al volante. El conductor del camión no resultó herido.

Tesla dice que el piloto automático se ha utilizado durante más de 130 millones de millas y señala que, en promedio, ocurre una muerte cada 94 millones de millas en los EE. UU. y cada 60 millones de millas en todo el mundo. La investigación de la NHTSA, dice Tesla, es una "evaluación preliminar" para determinar si el sistema de piloto automático funcionaba correctamente, lo que puede ser un precursor de una acción de seguridad como un retiro del mercado.

Nuestras condolencias por la trágica pérdida https://t.co/zI2100zEGL — Elon Musk (@elonmusk) 30 de junio de 2016

En la publicación del blog, Tesla reitera que los clientes deben aceptar que el sistema está en una "fase beta pública" antes de que puedan usarlo, y que el sistema fue diseñado con la expectativa de que los conductores mantengan sus manos en el volante y que el Se requiere que el conductor "mantenga el control y la responsabilidad de su vehículo". Las características críticas para la seguridad de los vehículos que se implementan en las versiones beta públicas son un territorio nuevo para los reguladores y no se han establecido reglas.

La primera víctima mortal en un Tesla en modo Autopilot

Algunos expertos en conducción autónoma han criticado a Tesla por introducir la función de piloto automático tan pronto, y un ingeniero de Volvo dijo que el sistema "te da la impresión de que está haciendo más de lo que es". En otras palabras, el automóvil maneja la mayoría de las situaciones con tanta fluidez que los conductores creen que el automóvil puede manejar cualquier situación que pueda surgir. Ese no es el caso, y el conductor debe seguir siendo responsable de las acciones del vehículo, incluso con Autopilot activo. Varios fabricantes de automóviles que trabajan en sistemas similares a Autopilot, por ejemplo, GM con Super Cruise, solo han probado la función en privado y han dicho que no la implementarán hasta que estén listos.

Volvo ha dicho que asumirá la responsabilidad legal total de todos sus automóviles cuando operen en modo totalmente autónomo, y planea lanzar una prueba limitada de su tecnología autónoma Drive Me el próximo año.

NHTSA emitió la siguiente declaración a The Verge:

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd