Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 204

Incidents associés

Incident 2022 Rapports
A Collection of Tesla Autopilot-Involved Crashes

Loading...
Tesla critiqué pour avoir imputé la mort du pilote automatique au conducteur
industryweek.com · 2018

Les défenseurs de la sécurité des consommateurs et les experts en véhicules autonomes ont critiqué Tesla Inc. pour avoir publié une autre déclaration sur la mort d'un client qui a blâmé l'inattention du conducteur.

Quelques jours après la publication d'un deuxième article de blog sur l'accident impliquant Walter Huang, un homme de 38 ans décédé le mois dernier dans son modèle X, Tesla a publié une déclaration en réponse à sa famille parlant avec la chaîne de télévision ABC7 de San Francisco. La société a déclaré que la "seule" explication de l'accident était "si M. Huang ne faisait pas attention à la route, bien que la voiture ait donné plusieurs avertissements pour le faire".

"Je trouve cela choquant", a déclaré par téléphone Cathy Chase, présidente du groupe Advocates for Highway and Auto Safety. « Ils prétendent que la seule façon pour que cet accident se soit produit est que M. Huang ne prête pas attention. Où est-ce que je commence? Ce n'est pas le seul moyen.

Des groupes tels que Advocates for Highway and Auto Safety et Consumer Reports ont critiqué Tesla pendant des années pour avoir nommé son système d'assistance à la conduite Autopilot, ce dernier appelant l'entreprise à choisir un autre surnom en juillet 2016. Les deux organisations partagent le point de vue de la Le National Transportation Safety Board, qui a exhorté les constructeurs automobiles à faire plus pour s'assurer que les conducteurs utilisant des systèmes partiellement autonomes comme le pilote automatique restent engagés dans la tâche de conduire. L'agence américaine est au milieu de deux enquêtes actives sur des accidents liés au pilote automatique.

Il est de la responsabilité de Tesla de fournir des garanties adéquates contre l'utilisation abusive du pilote automatique par le conducteur, notamment en envoyant des avertissements visuels et sonores lorsque le système a besoin d'un humain pour prendre le relais, a déclaré Chase. "S'ils ne parviennent pas à convaincre quelqu'un de se réengager - comme ils disent que leurs chauffeurs doivent le faire - alors ils ne font pas leur travail."

Des enjeux élevés

Les enjeux de l'offre de Tesla pour défendre le pilote automatique sont importants. L'enquête du NTSB sur l'accident du 23 mars impliquant Huang a contribué à une vente massive des actions de la société à la fin du mois dernier. Le chef de la direction, Elon Musk, a affirmé il y a près de 18 mois que le système finirait par rendre les véhicules Tesla capables de conduire entièrement de manière autonome, et une grande partie de la valeur de l'entreprise de 51 milliards de dollars est liée à l'idée qu'elle pourrait être un pionnier de la voiture autonome.

À partir d'octobre: Musk passe un an à se tromper sur les Teslas autonomes

Tesla a refusé de dire combien de temps les conducteurs peuvent désormais utiliser le pilote automatique entre les avertissements visuels ou sonores pour avoir une main sur le volant. Il a également refusé de commenter le nombre d'alertes pouvant être ignorées avant que le système ne se désengage, la version du logiciel Autopilot du modèle X de Huang ou la date de construction de la voiture.

"Ce n'est pas parce qu'un conducteur fait quelque chose de stupide qu'il - ou d'autres qui sont vraiment irréprochables - devrait être condamné à une mort autrement évitable", a déclaré Bryant Walker Smith, professeur à la faculté de droit de l'Université de Caroline du Sud. qui étudie la réglementation des voitures sans conducteur. "On pourrait se demander s'il existe de meilleurs moyens d'empêcher les conducteurs de se blesser ou, pire, de blesser les autres."

Sous enquête

Le NTSB enquête sur l'accident qui a tué Huang, ainsi que sur une collision en janvier impliquant une Tesla Model S qui a renversé un camion de pompiers stationné sur une autoroute près de Los Angeles avec le pilote automatique activé. L'agence a déclaré après le deuxième article de blog de Tesla sur l'incident de Huang qu'elle était mécontente de la société pour avoir divulgué des détails au cours de son enquête.

Dans sa dernière déclaration, Tesla a déclaré qu'il était "extrêmement clair" que le pilote automatique oblige les conducteurs à être vigilants et à avoir les mains sur le volant. Le système le rappelle au conducteur à chaque fois qu'il est engagé, selon l'entreprise.

"La réponse de Tesla reflète sa stratégie continue de doubler les avertissements explicites qu'elle a donnés aux conducteurs sur la façon d'utiliser, et de ne pas utiliser, le système", a déclaré Mike Ramsey, analyste chez Gartner Inc. "Ce n'est pas la première fois Tesla a adopté cette position.

L'épouse de Huang a déclaré à ABC7 qu'il s'était plaint avant l'accident mortel que son modèle X s'était dirigé vers la même barrière d'autoroute avec laquelle il était entré en collision le 23 mars. La famille a embauché Minami Tamaki LLP, qui a déclaré mercredi dans un communiqué qu'elle pensait que le pilote automatique de Tesla était défectueux. et a probablement causé la mort de Huang. Le cabinet d'avocats basé à San Francisco a refusé de commenter la déclaration de Tesla.

Réclamation de taux d'accident

La National Highway Traffic Safety Administration, qui a le pouvoir d'ordonner des rappels et d'amender les constructeurs automobiles, n'a trouvé aucun défaut après avoir enquêté sur l'accident de mai 2016 impliquant une Tesla Model S conduite sur pilote automatique par Josh Brown, un ancien Navy SEAL. L'agence a clôturé son enquête en janvier 2017.

Selon les données que Tesla a fournies aux enquêteurs de la NHTSA avant sa décision contre tout rappel, le système de direction du pilote automatique pourrait empêcher le taux d'accidents par million de kilomètres parcourus d'environ 40 %, un chiffre cité par la société dans sa dernière déclaration.

"Nous sympathisons avec la famille de M. Huang, qui est naturellement confrontée à la perte et au chagrin, mais la fausse impression que le pilote automatique n'est pas sûr causera des dommages.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd