Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1748

Incidents associés

Incident 2301 Rapport
Model 3 Tesla on Autopilot Crashed into a Truck in Florida, Killing Driver

Loading...
Le pilote automatique de Tesla était engagé lorsque le modèle 3 s'est écrasé dans un camion, selon le rapport
theverge.com · 2019

Le système avancé d'aide à la conduite de Tesla, Autopilot, était actif lorsqu'un modèle 3 conduit par un homme de Floride âgé de 50 ans s'est écrasé sur le côté d'un camion semi-remorque le 1er mars, indique le National Transportation Safety Board (NTSB) dans un rapport. publié jeudi. Les enquêteurs ont examiné la vidéo et les données préliminaires du véhicule et ont constaté que ni le conducteur ni le pilote automatique n'avaient "exécuté de manœuvres d'évitement" avant de heurter le camion.

Le conducteur, Jeremy Beren Banner, a été tué dans l'accident. Il s'agit au moins du quatrième accident mortel d'un véhicule Tesla impliquant un pilote automatique.

Cet accident est étrangement similaire à un autre impliquant une Tesla en 2016 près de Gainesville, en Floride. Lors de cet incident, Joshua Brown a été tué lorsque sa berline Model S est entrée en collision avec un camion semi-remorque sur une autoroute de Floride en mai 2016, faisant de lui le premier décès connu dans une voiture semi-autonome.

La National Highway Traffic Safety Administration (NHTSA) a déterminé qu'un "manque de garanties" avait contribué à la mort de Brown. En attendant, le rapport d'aujourd'hui n'est que préliminaire et le NTSB a refusé de blâmer qui que ce soit.

Les enquêteurs déclarent que Banner a activé le pilote automatique environ 10 secondes avant la collision. "De moins de 8 secondes avant l'accident jusqu'au moment de l'impact, le véhicule n'a pas détecté les mains du conducteur sur le volant", a déclaré le NTSB. Le véhicule roulait à 68 mph lorsqu'il s'est écrasé. Le toit du modèle 3 a été cisaillé lorsqu'il a heurté la remorque du camion, passant en dessous, puis s'arrêtant à 1 600 pieds.

Dans un communiqué, Tesla a confirmé cette série d'événements. "Nous sommes profondément attristés par cet accident et nos pensées vont à toutes les personnes touchées par cette tragédie", a déclaré un porte-parole de Tesla. "Les conducteurs de Tesla ont parcouru plus d'un milliard de kilomètres avec le pilote automatique activé, et nos données montrent que, lorsqu'ils sont utilisés correctement par un conducteur attentif et prêt à prendre le contrôle à tout moment, les conducteurs pris en charge par le pilote automatique sont plus sûrs que ceux qui fonctionnent sans assistance. Au cours des trois derniers trimestres, nous avons publié des données de sécurité trimestrielles directement à partir de nos véhicules, ce qui le démontre. »

En plus des deux accidents mortels en Floride, le pilote automatique de Tesla a été impliqué dans au moins deux autres collisions mortelles : la mort le 23 mars 2018 de Wei « Walter » Huang à Mountain View, en Californie ; et le 20 janvier 2016, la mort de Gao Yaning à Handan, en Chine.

Il y a également eu plusieurs accidents non mortels impliquant le pilote automatique : un du 22 janvier 2018 impliquant le pilote automatique et un d'août 2017 impliquant un incendie de batterie.

Le PDG de Tesla, Elon Musk, a été critiqué pour avoir exagéré les capacités autonomes de ses véhicules, tout en testant en bêta des fonctionnalités semi-autonomes sur ses clients – avec parfois des conséquences désastreuses. La société vend une version du pilote automatique appelée "Full Self-Driving", même si les conducteurs sont constamment avertis de garder les mains sur le volant et les yeux sur la route lorsqu'ils l'utilisent. Lors d'un événement pour les investisseurs en avril, Musk a affirmé que Tesla aurait "un million" de véhicules Tesla autonomes fonctionnant comme des taxis d'ici la fin de 2020.

Dans le passé, Musk a imputé les accidents mortels impliquant le pilote automatique à l'inexpérience du conducteur. "Lorsqu'il y a un accident grave, c'est presque toujours, en fait peut-être toujours, le cas où il s'agit d'un utilisateur expérimenté, et le problème est plus un problème de complaisance", a déclaré Musk l'année dernière. «Ils s'y habituent juste trop. Cela a tendance à être plus un problème. Ce n'est pas un manque de compréhension de ce que le pilote automatique peut faire. C'est [les conducteurs] qui pensent qu'ils en savent plus sur le pilote automatique qu'eux-mêmes.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd