Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2723

Incidents associés

Incident 47813 Rapports
Tesla FSD Reportedly Increased Crash Risk, Prompting Recall

Loading...
Tesla rappelle 362 758 véhicules en raison d'un risque d'accident FSD
extremetech.com · 2023

Tesla rappelle 362 758 de ses véhicules en raison des risques d'accident associés à son logiciel de conduite autonome, appelé Full Self Driving (FSD) Beta. Le rappel a été annoncé jeudi via le site Web de la National Highway Traffic Safety Administration (NHTSA). Selon l'avis de Tesla, certains véhicules Model S 2016-2023, Model X, Model 3 2017-2023 et Model Y 2020-2023 avec FSD Beta installé sont concernés.

FSD Beta aurait mal géré les scénarios mêmes du logiciel de conduite autonome doit être équipé pour gérer. La NHTSA dit FSD Beta "peut permettre au véhicule d'agir de manière dangereuse autour des intersections, comme voyager traversez une intersection alors que vous êtes dans une voie de virage uniquement, entrez dans une intersection contrôlée par un panneau d'arrêt sans vous arrêter complètement, ou entrez dans une intersection pendant un feu de circulation jaune fixe sans la prudence requise. Le système peut également répondre "insuffisamment" aux changements de limite de vitesse tout en ne tenant pas compte des réglages de vitesse manuels du conducteur.

Pour résoudre le problème, Tesla publiera des mises à jour logicielles gratuites en direct pour les pilotes concernés. Bonne chose aussi; ceux qui ont accès à FSD Beta ont déjà payé 15 000 $ à l'avance (ou 199 $ par mois en tant qu'[abonnement](https://www.extremetech.com/extreme/324864-tesla-rolls-out-200-monthly-subscription-for- entièrement autonome)) pour l'option. Ils se sont également efforcés d'obtenir et de maintenir un "Score de sécurité" élevé, que le logiciel Tesla utilise pour déterminer l'éligibilité personnelle d'un conducteur à le programme bêta FSD.

Les véhicules autonomes (ou ceux équipés de l'option) devraient pouvoir naviguer dans des situations aussi inhérentes à l'expérience de conduite que le sont les intersections et les limites de vitesse. Ne pas le faire en toute sécurité suggère des problèmes de FSD plus importants que prévu. Comme indiqué en décembre, le logiciel expérimental de conduite autonome de Tesla n'a jamais progressé au-delà de la capacité de conduite autonome de niveau 2 telle que définie par la Society of Automotive Engineers.

Étant donné qu'il y a cinq niveaux et qu'aucune voiture de production n'a dépassé le niveau 2, Mercedes vient d'annoncer les [premiers véhicules devant atteindre le niveau 3] (https://www.pcmag.com/news/mercedes-gets-the-ok -to-roll-out-advanced-autonomous-driving-in-nevada) en 2024, ce qui n'est toujours pas là où nous devons être - il est assez facile de voir que Teslas ne peut pas se conduire complètement même lorsqu'il est équipé du FSD. Les législateurs ressentent la même chose : la sénatrice californienne Lena Gonzalez a parrainé l'année dernière un projet de loi qui interdirait à Tesla d'appeler son logiciel Full Self Driving dans l'État, et le gouverneur Gavin Newsom l'a signé rapidement.

Il est également préoccupant que quelqu'un ayant des connaissances d'initiés ait exprimé des inquiétudes concernant les capacités de FSD Beta (ou leur absence). Au printemps dernier, un membre de l'équipe Autopilot de Tesla a publié une vidéo YouTube représentant son modèle 3 personnel frappant une borne suite à une panne du FSD. Cette vidéo a coûté son travail à l'employé.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd