Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2007

Incidents associés

Incident 3204 Rapports
Tesla on Autopilot Collided with Parked Fire Truck on California Freeway

Loading...
Le conducteur de Tesla était sur le pilote automatique en train de manger un bagel et a heurté un camion de pompiers
caranddriver.com · 2019
  • Le conducteur d'une Tesla Model S de 2014 qui a percuté l'arrière d'un camion de pompiers en Californie en 2018 utilisait le pilote automatique à l'époque, selon un rapport du National Transportation Safety Board (NTSB) cette semaine.
  • Les enquêteurs de l'agence ont rapporté que le conducteur prenait son petit-déjeuner pendant qu'il laissait Autopilot prendre le contrôle de la conduite ; ses mains n'étaient pas sur le volant et il n'a pas freiné avant l'accident.
  • *Ce n'est pas le premier (et malheureusement ce ne sera probablement pas le dernier) cas où des conducteurs s'appuient davantage sur le pilote automatique que Tesla déclare expressément qu'ils devraient. *

Le National Transportation Safety Board (NTSB) a déterminé qu'un homme prenait son petit-déjeuner à l'intérieur de sa Tesla lorsqu'elle s'est écrasée contre un camion de pompiers stationné. L'homme non identifié de 47 ans, qui a percuté l'arrière d'un camion de pompiers sur l'Interstate 405 à Culver City, en Californie, en janvier 2018, utilisait la fonction de pilote automatique de la voiture pendant qu'il déjeunait avec du café et un bagel.

Ses mains n'étaient pas sur le volant avant l'accident, pas plus que le frein de la Model S 2014 pour le camion de pompiers, qui a été arrêté avec des feux clignotants. Il n'a pas été identifié dans les archives publiques et on ne sait pas s'il sera poursuivi au pénal. Le rapport préliminaire du NTSB publié mardi indique qu'après l'accident, son café s'est renversé et son bagel a été brisé, le conducteur n'était pas sûr si son café ou son bagel était dans sa main lorsque l'accident s'est produit. L'agence n'attribue pas de responsabilité dans les enquêtes sur les accidents.

Les données du rapport du NTSB ont conclu que la Tesla avait parcouru ce jour-là environ 30 miles sur environ 66 minutes, et pendant ce temps, le pilote automatique était engagé pendant 29 minutes et quatre secondes. "Les mains ont été détectées sur le volant pendant seulement 78 secondes", a déclaré le NTSB.

Le NTSB a déclaré que le pilote automatique était activé pendant les 13 dernières minutes et 48 secondes avant l'accident, période pendant laquelle le conducteur avait les mains sur le volant pendant 51 secondes au total. Les alertes "Placez les mains sur le volant" sont venues du système de la voiture à quatre reprises, tout comme un avertissement sonore. Le régulateur de vitesse était réglé sur 80 mph. Lorsque la voiture devant a changé de voie - probablement pour se déplacer vers le camion de pompiers - l'homme a laissé sa Tesla accélérer de 21 mph à 31 mph avant de heurter l'arrière du camion de plein fouet, selon le rapport. Heureusement, il n'y a eu aucun blessé ni le "conducteur" ni personne dans la zone de l'accident.

Un porte-parole de Tesla a publié une déclaration disant que "les propriétaires de Tesla ont parcouru des milliards de kilomètres avec le pilote automatique activé, et les données de notre rapport trimestriel sur la sécurité des véhicules (https://urldefense.proofpoint.com/v2/url?u=https-3A__www .tesla.com_VehicleSafetyReport&d=DwMGaQ&c=B73tqXN8Ec0ocRmZHMCntw&r=nmlWyxtz4yY4VeVXKviBhttnKkOLy7sbqzRMerAWY-4&m=Epnmm6eizfZmSjhAX6sJnBQitJJXUCFaj7SVznGsVr0&s=6xsQCaCIdGyTY85H_vJxtOyjuF5JLtn2jtzIp_UUAdA&e=) indicates that drivers using Autopilot remain safer than those operating without assistance." Le fabricant de véhicules électriques a également déclaré que son système de surveillance du conducteur "interdit l'utilisation du pilote automatique lorsque les avertissements sont ignorés", bien que le rapport du NTSB affirme que ces avertissements ont été émis dans ce cas en vain. Tesla souligne également qu'elle a mis à jour son système depuis cet accident de 2018, notamment "en ajustant les intervalles de temps entre les avertissements pratiques et les conditions dans lesquelles ils sont activés".

Ce contenu est importé de {embed-name}. Vous pourrez peut-être trouver le même contenu dans un autre format, ou vous pourrez peut-être trouver plus d'informations, sur leur site Web.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd