Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2137

Incidents associés

Incident 3336 Rapports
Tesla on Autopilot Crashed Parked Michigan Police Car on Interstate

Loading...
Le gouvernement fédéral enquête sur un autre accident du pilote automatique Tesla
theverge.com · 2021

La National Highway Traffic Safety Administration enquête sur un autre accident de Tesla dans lequel le pilote automatique aurait été utilisé.

L'accident s'est produit à l'extérieur de Lansing, dans le Michigan, lorsque le conducteur d'une Tesla Model Y a percuté le croiseur d'un soldat de l'État. La police du Michigan a déclaré que le conducteur utilisait le pilote automatique, le système avancé d'assistance à la conduite (ADAS) de Tesla, au moment de l'accident. Personne n'a été blessé, mais le gouvernement a envoyé des enquêteurs sur les lieux pour déterminer comment le pilote automatique a pu contribuer à l'accident.

"La NHTSA est au courant de l'incident impliquant un véhicule Tesla près de Lansing, dans le Michigan", a déclaré un porte-parole dans un communiqué. "Conformément à la surveillance vigilante de la NHTSA et à sa solide autorité sur la sécurité de tous les véhicules à moteur et équipements, y compris les technologies automatisées, nous avons lancé une équipe spéciale d'enquête sur les accidents pour enquêter sur l'accident."

Il s'agit du dernier accident impliquant une Tesla à être examiné par les enquêteurs fédéraux. La NHTSA a envoyé des équipes pour inspecter des accidents similaires impliquant des Teslas qui ont eu lieu ces dernières semaines à Houston et Detroit. Les forces de l'ordre locales ont déclaré qu'elles ne pensaient pas qu'Autopilot était impliqué dans l'accident de Detroit, mais elles n'ont pas encore pris la même décision à Houston.

Il s'agit également du dernier incident impliquant un conducteur utilisant le pilote automatique qui s'écrase sur un objet stationnaire. Il y a eu au moins deux accidents mortels dans lesquels un propriétaire de Tesla a percuté un véhicule arrêté, et Tesla n'a pas encore abordé cette question de manière significative.

Tesla n'a pas répondu à une demande de commentaire, probablement parce que la société a dissous son bureau de presse et ne répond généralement plus aux demandes des médias. Dans le passé, Tesla a averti ses clients que le pilote automatique n'est pas un système de conduite autonome et nécessite toujours une attention constante à la route lors de son utilisation.

Dans le même temps, la société a récemment déployé une version bêta du pilote automatique appelée "Full Self Driving" qui a donné à de nombreuses personnes la fausse impression que les véhicules Tesla sont autonomes et n'obligent pas les conducteurs à faire attention à la route. Tesla a récemment augmenté le nombre de personnes ayant accès au logiciel bêta. "Soyez toujours prudent, mais ça devient mature", le PDG Elon Musk a tweeté récemment.

Tesla a une histoire mouvementée avec la NHTSA, l'agence fédérale qui peut émettre des rappels et enquêter sur les accidents de voiture. L'agence a enquêté sur plusieurs accidents mortels impliquant le pilote automatique. L'année dernière, le National Transportation Safety Board a conclu que l'ADAS était l'une des causes probables d'un accident mortel en 2018, dans lequel un Californien a été tué après que son modèle X a percuté une barrière en béton. Plus tard, le président du conseil de sécurité a déclaré Tesla ignorait ses recommandations. Et l'année dernière, un porte-parole de la NHTSA a déclaré que l'agence "surveillait" le déploiement du logiciel Full Self Driving de Tesla.

Les défenseurs de la sécurité ont dénoncé la décision de Tesla de tester son logiciel d'assistance à la conduite sur ses clients comme irresponsable. Le directeur exécutif du Center for Auto Safety a accusé Tesla d'avoir "intentionnellement induit le public en erreur concernant les capacités et les lacunes de leur technologie" [selon The Associated Press](https://www.usnews.com/news/us/articles /2021-03-17/us-sends-investigators-to-probe-another-michigan-tesla-crash).

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd