Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1941

Incidents associés

Incident 3041 Rapport
Tesla on FSD Reportedly Drove into the Wrong Lane in California

Loading...
Un véhicule Tesla en mode bêta "Full Self-Driving" "gravement endommagé" après un accident en Californie
theverge.com · 2021

Une Tesla Model Y en mode bêta "Full Self-Driving" (FSD) se serait écrasée le 3 novembre à Brea, une ville au sud-est de Los Angeles, marquant ce qui sera probablement le premier incident impliquant la fonction controversée d'assistance à la conduite de l'entreprise. Personne n'a été blessé dans l'accident, mais le véhicule aurait été "gravement endommagé".

L'accident a été signalé à la National Highway Traffic Safety Administration, qui mène plusieurs enquêtes qui se chevauchent sur le système de pilote automatique de Tesla. Le rapport d'incident semble avoir été rédigé par le propriétaire du modèle Y.

Selon le rapport:

Le véhicule était en mode bêta FSD et en tournant à gauche, la voiture s'est engagée dans la mauvaise voie et j'ai été heurté par un autre conducteur dans la voie à côté de ma voie. la voiture a donné une alerte à mi-chemin du virage, j'ai donc essayé de tourner le volant pour l'empêcher d'entrer dans la mauvaise voie, mais la voiture a pris le contrôle d'elle-même et s'est forcée dans la mauvaise voie, créant une manœuvre dangereuse mettant tout le monde impliqué à risque. la voiture est gravement endommagée côté conducteur.

La décision de Tesla de tester son [logiciel d'aide à la conduite "Full Self Driving"](https://www.theverge.com/2021/9/26/22693610/tesla-opens-full-self-driving-beta-software-more- clients) avec des propriétaires de véhicules non formés sur la voie publique a attiré une quantité massive de [scrutiny](https://www.theverge.com/2021/10/13/22724171/nhtsa-tesla-letters-fsd-beta-autopilot-recall -véhicules-d'urgence) et critique. Tout au long, la société a déployé - [et s'est rétractée] (https://www.theverge.com/2021/10/24/22743628/elon-musk-tesla-fsd-beta-10-3-rollback-issues-phantom -fcw) - plusieurs mises à jour logicielles destinées à mettre à niveau le système tout en corrigeant les bogues du logiciel.

De nombreux clips vidéo ont été téléchargés en ligne montrant des propriétaires de Tesla utilisant la version bêta de FSD, avec plus ou moins de succès. Certains clips montrent que le système d'assistance au conducteur gère en toute confiance des scénarios de conduite complexes, tandis que d'autres dépeignent la voiture dérivant dans la mauvaise voie ou commettant d'autres erreurs graves.

Malgré son nom, FSD n'est pas un système de conduite autonome

Malgré son nom, le FSD n'est pas un système de conduite autonome. Les conducteurs sont tenus de rester vigilants, en gardant les yeux sur la route et les mains sur le volant. Les véhicules dotés de systèmes de conduite hautement automatisés qui nécessitent encore une supervision humaine sont classés au niveau 2 dans la taxonomie de la Society of Automotive Engineers. (Le niveau 5 décrit un véhicule qui peut rouler n'importe où, dans n'importe quelles conditions, sans aucune supervision humaine.)

Le gouvernement américain a manifesté un regain d'intérêt pour Tesla, annonçant récemment qu'il était [enquêtant sur des incidents impliquant des voitures Tesla utilisant le pilote automatique qui se sont écrasées](https://www.theverge.com/2021/8/16/22626819/tesla-autopilot -crash-emergency-vehicle-probe-nhtsa) dans les véhicules d'urgence en stationnement.

La NHTSA demande plus d'informations à Tesla sur la croissance test bêta public de FSD, le processus d'évaluation "Safety Score" récemment lancé pour entrer dans le programme, et les accords de non-divulgation que Tesla faisait signer aux participants jusqu'à récemment.

Un porte-parole de Tesla n'a pas répondu à une demande de commentaire – il est peu probable qu'il le fasse après la dissolution de son service de presse en 2019. Un porte-parole de la NHTSA a confirmé que l'agence enquêtait sur l'allégation.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd