Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 210

Incidents associés

Incident 2022 Rapports
A Collection of Tesla Autopilot-Involved Crashes

Loading...
Un conducteur de Tesla tué dans un accident avec le pilote automatique actif, la NHTSA enquêtant
theverge.com · 2016

Une Tesla Model S avec le système de pilote automatique activé a été impliquée dans un accident mortel, le premier décès connu dans une Tesla où le pilote automatique était actif. La société a révélé l'accident dans un article de blog publié aujourd'hui et a déclaré avoir informé la National Highway Transportation Safety Administration (NHTSA) de l'incident, qui enquête actuellement.

L'accident s'est produit sur une autoroute divisée dans le centre de la Floride lorsqu'un semi-remorque a traversé l'autoroute perpendiculairement à la Model S. Ni le conducteur - qui, selon Tesla, est responsable en dernier ressort des actions du véhicule, même avec le pilote automatique activé - ni la voiture n'ont remarqué le gros gréement ou la remorque "contre un ciel très éclairé" et les freins n'ont pas été appliqués. Dans un tweet, le PDG de Tesla, Elon Musk, a déclaré que le radar du véhicule n'avait pas aidé dans ce cas, car il « désactive ce qui ressemble à un panneau de signalisation aérien pour éviter les faux freinages ».

En raison de la hauteur de caisse élevée de la remorque, ainsi que de son positionnement en travers de la route, la Model S est passée sous la remorque et le premier impact s'est produit entre le pare-brise et la remorque. Tesla écrit que si la voiture avait heurté l'avant ou l'arrière de la remorque, même à grande vitesse, les systèmes de sécurité de la voiture "auraient probablement évité des blessures graves comme cela a été le cas dans de nombreux autres incidents similaires".

"Le pilote automatique s'améliore tout le temps, mais il n'est pas parfait et nécessite toujours que le conducteur reste vigilant."

L'accident s'est produit le 7 mai à Williston, en Floride, avec Joshua Brown, 40 ans, résident de l'Ohio, au volant. Le chauffeur du camion n'a pas été blessé.

Selon Tesla, le pilote automatique a été utilisé sur plus de 130 millions de miles, notant qu'en moyenne, un décès survient tous les 94 millions de miles aux États-Unis et tous les 60 millions de miles dans le monde. L'enquête de la NHTSA, dit Tesla, est une "évaluation préliminaire" pour déterminer si le système de pilote automatique fonctionnait correctement, ce qui peut être un précurseur d'une action de sécurité comme un rappel.

Nos condoléances pour la perte tragique https://t.co/zI2100zEGL — Elon Musk (@elonmusk) 30 juin 2016

Dans le billet de blog, Tesla réitère que les clients doivent accepter que le système est dans une "phase bêta publique" avant de pouvoir l'utiliser, et que le système a été conçu dans l'attente que les conducteurs gardent les mains sur le volant et que le conducteur est tenu de "garder le contrôle et la responsabilité de votre véhicule". Les fonctionnalités de véhicule critiques pour la sécurité déployées dans les versions bêta publiques sont un nouveau territoire pour les régulateurs, et les règles n'ont pas été définies.

Le premier décès d'une Tesla en mode Autopilot

Certains experts en conduite autonome ont critiqué Tesla pour avoir introduit la fonction de pilote automatique si tôt, un ingénieur de Volvo affirmant que le système "vous donne l'impression qu'il en fait plus qu'il ne l'est". En d'autres termes, la voiture gère la plupart des situations avec tant de douceur que les conducteurs sont amenés à croire que la voiture peut gérer n'importe quelle situation qu'elle pourrait rencontrer. Ce n'est pas le cas, et le conducteur doit rester responsable des actions du véhicule, même avec le pilote automatique actif. Plusieurs constructeurs automobiles travaillant sur des systèmes similaires au pilote automatique - GM avec Super Cruise, par exemple - n'ont testé la fonctionnalité qu'en privé et ont déclaré qu'ils ne se déploieraient pas tant qu'ils ne seraient pas prêts.

Volvo a déclaré qu'il assumerait l'entière responsabilité légale de toutes ses voitures lorsqu'elles fonctionneraient en mode entièrement autonome, et prévoit de lancer un essai limité de sa technologie autonome Drive Me l'année prochaine.

La NHTSA a publié la déclaration suivante à The Verge :

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd