Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1941

Incidentes Asociados

Incidente 3041 Reporte
Tesla on FSD Reportedly Drove into the Wrong Lane in California

Loading...
Vehículo Tesla en modo beta 'Full Self-Driving' 'severamente dañado' después de un accidente en California
theverge.com · 2021

Un Tesla Model Y en modo beta "Full Self-Driving" (FSD) supuestamente se estrelló el 3 de noviembre en Brea, una ciudad al sureste de Los Ángeles, marcando lo que probablemente sea el primer incidente relacionado con la controvertida función de asistencia al conductor de la compañía. Nadie resultó herido en el accidente, pero según los informes, el vehículo resultó “gravemente dañado”.

El accidente se informó a la Administración Nacional de Seguridad del Tráfico en las Carreteras, que tiene múltiples investigaciones superpuestas sobre el sistema de piloto automático de Tesla. El informe del incidente parece haber sido realizado por el propietario del Model Y.

Según el informe:

El vehículo estaba en el modo FSD Beta y mientras giraba a la izquierda, el automóvil entró en el carril equivocado y otro conductor me atropelló en el carril contiguo al mío. el automóvil dio una alerta a la mitad de la curva, así que traté de girar el volante para evitar que se pasara al carril equivocado, pero el automóvil tomó el control por sí solo y se obligó a entrar en el carril incorrecto creando una maniobra insegura que puso a todos los involucrados en riesgo. el coche está severamente dañado en el lado del conductor.

La decisión de Tesla de probar su [software de asistencia al conductor "Full Self Driving"](https://www.theverge.com/2021/9/26/22693610/tesla-opens-full-self-driving-beta-software-more- clientes) con propietarios de vehículos no capacitados en la vía pública ha atraído una gran cantidad de [escrutinio](https://www.theverge.com/2021/10/13/22724171/nhtsa-tesla-letters-fsd-beta-autopilot-recall -vehículos-de-emergencia) y crítica. En todo momento, la compañía ha lanzado — [y se ha retractado](https://www.theverge.com/2021/10/24/22743628/elon-musk-tesla-fsd-beta-10-3-rollback-issues-phantom -fcw): varias actualizaciones de software destinadas a actualizar el sistema y al mismo tiempo corregir errores en el software.

Se han subido muchos videos en línea que muestran a los propietarios de Tesla usando FSD beta, con diversos grados de éxito. Algunos clips muestran el sistema de asistencia al conductor manejando con confianza escenarios de conducción complejos, mientras que otros muestran el automóvil desviándose hacia el carril equivocado o cometiendo otros errores graves.

A pesar de su nombre, FSD no es un sistema de conducción autónomo

A pesar de su nombre, FSD no es un sistema de conducción autónomo. Se requiere que los conductores se mantengan alerta, manteniendo la vista en la carretera y las manos en el volante. Los vehículos con sistemas de conducción altamente automatizados que aún requieren supervisión humana se clasifican como Nivel 2 según la taxonomía de la Sociedad de Ingenieros Automotrices. (El nivel 5 describe un vehículo que puede conducir en cualquier lugar, bajo cualquier condición, sin supervisión humana).

El gobierno de los EE. UU. ha renovado su interés en Tesla y recientemente anunció que estaba [investigando incidentes relacionados con autos Tesla que operaron Autopilot que se estrellaron] (https://www.theverge.com/2021/8/16/22626819/tesla-autopilot -crash-emergency-vehicle-probe-nhtsa) contra vehículos de emergencia estacionados.

NHTSA también está buscando más información de Tesla sobre el creciente prueba beta pública de FSD, el proceso de evaluación de "Puntuación de seguridad" lanzado recientemente para ingresar al programa y los acuerdos de confidencialidad que Tesla estaba haciendo que los participantes se inscribieran hasta hace poco.

Un portavoz de Tesla no respondió a una solicitud de comentarios, ni es probable que lo hagan después de disolver su departamento de prensa en 2019. Un portavoz de la NHTSA confirmó que la agencia estaba investigando el reclamo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd