Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1759

Incidents associés

Incident 2088 Rapports
Tesla Phantom Braking Complaints Surged, Allegedly Linked to Tesla Vision Rollout

Loading...
Des centaines de propriétaires de Tesla signalent un freinage fantôme
iotworldtoday.com · 2022

La technologie de conduite autonome de Tesla continue de faire l'objet d'une surveillance accrue.

Le système d'assistance à la conduite Autopilot de Tesla fait l'objet d'une presse plus négative après qu'il est apparu que 758 propriétaires se sont plaints aux régulateurs américains d'incidents de "freinage fantôme" - où la voiture s'est soudainement arrêtée sans raison apparente.

Le chiffre alarmant a été révélé dans une lettre de demande d'informations envoyée à Tesla par la National Highway Traffic Safety Administration et publiée sur le site Web de la NHTSA.

Dans la lettre de 14 pages, datée du 4 mai, l'agence demande au constructeur automobile de fournir tous les rapports qu'il a reçus sur le freinage fantôme, ainsi que des détails sur les accidents, les blessures, les décès et les réclamations pour dommages matériels. Il demande également si le mode Full Self Driving de Tesla – que certains militants tentent d'interdire – et les systèmes de freinage d'urgence automatique étaient actifs au moment de tout incident.

Le freinage fantôme se produit lorsqu'un système d'assistance à la conduite applique les freins sans raison claire. Parfois, le système a détecté par erreur ce qu'il pense être un objet sur la route et freine pour tenter de l'éviter. Les arrêts brusques peuvent alors présenter des problèmes pour les véhicules qui suivent, augmentant ainsi la probabilité d'un accident.

Bien que des rapports circulent sur le freinage fantôme sur Teslas depuis un certain temps, l'agence n'a commencé à enquêter officiellement sur le modèle 3 et le modèle Y qu'en février dernier après avoir reçu 354 plaintes. Les enquêtes de la NHTSA couvrent environ 416 000 véhicules des années modèles 2021 et 2022, et plus tôt cette année, l'agence a déclaré qu'elle n'avait aucun rapport d'accident ou de blessure.

Le niveau de détail que la lettre demande à Tesla de fournir est vaste. Parmi les demandes pour chaque épisode de freinage fantôme figurent : "Les versions du logiciel, du micrologiciel et du matériel en place au moment de l'incident, ainsi que le véhicule, le kilométrage et la date d'installation." L'agence demande également les vitesses avant et après freinage, la décélération moyenne, la décélération maximale, si la vidéo existe et si un obstacle a été détecté.

La demande d'informations sur les demandes de garantie comprend les noms des propriétaires qui les ont effectuées et la nature des réparations éventuellement effectuées. La NHTSA a également demandé des détails sur les capteurs de Tesla et souhaite savoir si la société a mené des enquêtes sur les problèmes de freinage et effectué des modifications en conséquence.

L'agence souhaite également en savoir plus sur la "robustesse" du programme de test du constructeur automobile, avec des questions particulières sur la façon dont les ponts métalliques et les courbes en forme de S, le trafic venant en sens inverse, les gros camions et plus sont détectés, et des questions sur la façon dont le système de caméra fait face. avec l'éblouissement de l'horizon, la saleté, le mauvais temps et plus encore. Tesla a jusqu'au 20 juin pour répondre.

Ces derniers mois, la technologie de conduite autonome de Tesla a fait l'objet d'un examen de plus en plus minutieux. Il a été suggéré que les labels Autopilot et Full Self Driving donnent aux conducteurs un faux sentiment de sécurité, l'homme d'affaires milliardaire américain Dan O'Dowd faisant campagne pour l'interdiction du FSD, tandis que la NHTSA mène plusieurs enquêtes sur des accidents impliquant Teslas.

Le PDG de Tesla, Elon Musk, a déjà croisé le fer avec la NHTSA, appelant l'agence "la police amusante" plus tôt cette année.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd