Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2418

Incidents associés

Incident 4348 Rapports
Sudden Braking by Tesla Allegedly on Self-Driving Mode Caused Multi-Car Pileup in Tunnel

Loading...
Tesla derrière l'accident de huit véhicules était en mode "complètement autonome", selon le conducteur
theguardian.com · 2022

Le conducteur d'une Tesla Model S 2021 a déclaré aux autorités californiennes que le véhicule était en "mode de conduite entièrement autonome" lorsque la technologie a mal fonctionné, provoquant un accident de huit véhicules sur le [San Francisco](https://www.theguardian.com/ us-news/san-francisco) Bay Bridge le mois dernier.

L'accident du jour de Thanksgiving a entraîné le transport de deux mineurs à l'hôpital et a entraîné de longs retards sur le pont. L'incident a été rendu public dans un rapport de police mercredi.

Il s'agit du dernier d'une série d'accidents imputés à la technologie Tesla. Le directeur général du constructeur automobile électrique, Elon Musk, a fortement promu le logiciel "Full Self-Driving" (FSD), vendu comme module complémentaire de 15 000 $ à Tesla véhicules, mais il fait l'objet d'un examen juridique, réglementaire et public.

Après l'accident de San Francisco, le conducteur a déclaré à la police que le logiciel FSD avait mal fonctionné.

Le rapport de police indique que le véhicule roulait à 55 mph lorsqu'il a changé de voie, mais a freiné brusquement, ralentissant la voiture à environ 20 mph. Cela a conduit un autre véhicule à heurter le [Tesla] (https://www.theguardian.com/technology/tesla) et une réaction en chaîne d'accidents, selon Reuters.

Cependant, la police n'a pas été en mesure de déterminer si le logiciel fonctionnait ou si le compte du conducteur était exact. Le rapport a été rendu public après une demande de documents.

L'accident s'est produit quelques heures après que Musk a déclaré que Tesla mettrait le logiciel FSD à la disposition de toute personne en Amérique du Nord qui en ferait la demande. Il n'offrait auparavant le système qu'aux conducteurs ayant des scores de sécurité élevés.

Le rapport de police indique qu'en cas de dysfonctionnement du FSD, le conducteur aurait dû prendre le contrôle manuellement. Tesla a déclaré à plusieurs reprises que sa technologie avancée d'auto-conduite nécessite une "supervision active du conducteur" et que ses véhicules "ne sont pas autonomes".

Les pilotes sont également avertis lorsqu'ils installent FSD qu'il "peut faire la mauvaise chose au pire moment".

La National Highway Traffic Safety Administration (NHTSA), qui enquête sur Tesla après des rapports de freinage "sans avertissement, au hasard et souvent à plusieurs reprises au cours d'un seul trajet", n'a pas immédiatement commenté l'accident de San Francisco.

L'été dernier, la NHTSA a amélioré l'enquête en ce qu'elle appelle une analyse technique. La présidente du National Transportation Safety Board, Jennifer Homendy, s'est demandé si la "conduite entièrement autonome" était une description précise de la technologie - et a déclaré que Tesla devait faire plus pour empêcher les abus.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd