Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1363

Incidentes Asociados

Incidente 2022 Reportes
A Collection of Tesla Autopilot-Involved Crashes

Loading...
Tesla en 'Autopilot' golpea un vehículo policial que golpea una ambulancia, el conductor posiblemente borracho: policía
mercurynews.com · 2020

La policía está investigando la posibilidad de conducir ebrio en el caso de un conductor de Tesla en Arizona que dijo que estaba usando el controvertido sistema de "piloto automático" del fabricante de automóviles eléctricos del Área de la Bahía cuando su sedán se estrelló contra un vehículo policial desocupado, que luego golpeó una ambulancia.

El accidente ocurrió el martes en una carretera de Arizona, según el Departamento de Seguridad Pública del estado. “Podemos confirmar que el conductor indicó a los soldados que Tesla estaba en piloto automático en el momento de la colisión”, tuiteó el departamento, y agregó que el conductor masculino de 23 años estaba siendo investigado por conducir bajo los efectos del alcohol.

El sargento de policía que conducía la camioneta del departamento no estaba en ella en el momento del accidente y los ocupantes de la ambulancia no resultaron heridos, dijo el departamento. El conductor de Tesla fue hospitalizado con lesiones graves pero no mortales, dijo la policía.

Tesla no respondió de inmediato a una solicitud de comentarios. Después de un accidente fatal en 2018 que involucró a un Tesla en piloto automático en Mountain View, la compañía de Palo Alto dijo que "el piloto automático se puede usar de manera segura en caminos divididos y no divididos siempre que el conductor permanezca atento y listo para tomar el control", la Junta Nacional de Seguridad en el Transporte. anotado en un informe. En una publicación de blog de 2018, Tesla afirmó que Autopilot hace que los choques sean "mucho menos probables de ocurrir", argumentando que "nadie sabe acerca de los accidentes que no sucedieron, solo los que sucedieron".

Los accidentes relacionados con el sistema de asistencia al conductor Autopilot de Tesla han provocado múltiples investigaciones por parte de la junta federal de seguridad. La agencia descubrió que la confianza excesiva de un conductor de Tesla en el sistema automatizado fue un factor en un accidente fatal del Model S en Florida en 2016, y determinó que en 2018 en Mountain View, el piloto automático condujo un Tesla Model X SUV hacia una barrera de la autopista 101, una colisión que causó la muerte del conductor.

Después de otro accidente fatal en Florida, entre un sedán Model 3 y un camión en marzo de 2019, la agencia culpó a la confianza excesiva del conductor en la automatización y al diseño del sistema de piloto automático de Tesla, así como a “la falla de la compañía para limitar el uso del sistema a las condiciones para las que fue diseñado”, dijo en un informe.

El informe señaló que después del accidente de Florida de 2016, que involucró una colisión entre un Tesla y un camión, la agencia recomendó que Tesla y otros cinco fabricantes de automóviles que utilizan sistemas automatizados desarrollen tecnología para "detectar de manera más efectiva el nivel de compromiso del conductor y alertar al conductor". cuando falta el compromiso”. Sin embargo, mientras que las otras cinco empresas respondieron con descripciones de sus soluciones planificadas, “Tesla fue el único fabricante que no respondió oficialmente”, dice el informe.

Un Tesla chocó por detrás con un camión de bomberos estacionado para responder a un accidente en la I-405 en Culver City, California, el 22 de enero de 2018, según el Departamento de Bomberos de Culver City y la Patrulla de Carreteras de California. (Bomberos de Culver City Local1927)

La agencia también descubrió que el piloto automático fue un factor cuando un Model S se estrelló contra la parte trasera de un camión de bomberos en la I-405 en Culver City, cerca de Los Ángeles, en 2018. El conductor también tuvo la culpa en la colisión sin lesiones, por usar el piloto automático en “maneras inconsistentes con la orientación y las advertencias del fabricante”, informó la agencia.

Los Tesla Model 3 también sufren peligrosas aceleraciones repentinas, afirma la demanda

NHTSA investiga el 12º accidente de Tesla posiblemente relacionado con el piloto automático

NTSB: piloto automático participó en accidente fatal de Tesla en marzo

En diciembre, la Administración Nacional de Seguridad del Tráfico en las Carreteras anunció su 12ª investigación sobre un accidente de Tesla posiblemente relacionado con el piloto automático. En ese accidente, un Model 3 chocó por detrás con un coche de policía estacionado en Connecticut.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd