Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2474

Incidents associés

Incident 4348 Rapports
Sudden Braking by Tesla Allegedly on Self-Driving Mode Caused Multi-Car Pileup in Tunnel

Loading...
Les États-Unis enquêtent sur l'utilisation d'un système de conduite automatisée dans 2 accidents de Tesla
apnews.com · 2022

L'agence de sécurité routière du gouvernement américain a annoncé jeudi qu'elle enverrait des équipes pour enquêter sur deux accidents de novembre en Californie et dans l'Ohio impliquant des Teslas qui auraient pu fonctionner sur des systèmes de conduite automatisés.

Les sondes portent à 35 le nombre d'accidents étudiés par la National Highway Traffic Safety Administration depuis 2016 dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Dix-neuf personnes ont été tuées dans les accidents.

L'accident de Californie s'est produit le jour de Thanksgiving impliquant huit véhicules sur le pont San Francisco-Oakland Bay. Le conducteur a déclaré aux autorités que la Tesla Model S utilisait le logiciel «Full Self-Driving» de la société, selon le rapport Highway Patrol obtenu par CNN.

L'accident de l'Ohio s'est produit le 18 novembre près de Toledo, lorsqu'un Tesla Model 3 a percuté un SUV de l'Ohio Highway Patrol arrêté sur une route avec ses feux de détresse clignotants.

Un message a été laissé jeudi pour demander des commentaires à Tesla sur la dernière action de la NHTSA. La société basée à Austin, au Texas, a dissous son service des relations avec les médias.

L'agence a déclaré jeudi qu'elle avait envoyé l'équipe sur le crash de Californie après avoir recueilli des informations auprès des forces de l'ordre et de Tesla.

L'accident de huit véhicules s'est produit vers midi, fermant deux voies et obstruant la circulation pendant les vacances. Neuf personnes ont été soignées pour des blessures mineures, dont un enfant qui a été hospitalisé, selon CNN, qui a obtenu une copie du rapport d'accident par le biais d'une demande de documents publics.

Le conducteur de la Tesla Model S aurait déclaré à la California Highway Patrol que le système «Full Self-Driving» de la société fonctionnait lorsque l'accident s'est produit et qu'il a freiné de manière inattendue alors qu'il roulait à 55 miles par heure (88,5 kilomètres par heure). La Model S s'est déplacée dans la voie de l'extrême gauche, puis a freiné à 20 mph, provoquant l'empilement, a indiqué CNN dans le rapport.

Dans l'accident près de Toledo, un soldat de l'Ohio State Highway Patrol et un autre automobiliste ont été blessés lorsqu'un Tesla Model 3 a heurté l'arrière du SUV de la police garé sur une route avec ses feux de détresse clignotants.

Le Toledo Blade a signalé que le rapport de la patrouille routière ne précisait pas si des systèmes automatisés fonctionnaient.

La NHTSA enquête sur les systèmes automatisés de Tesla depuis 6 ans et demi sans prendre de mesures coercitives.

Michael Brooks, directeur exécutif du Center for Auto Safety à but non lucratif, un groupe de surveillance, a déclaré qu'il était grand temps pour l'agence de demander un rappel.

"La question est de savoir quel est le nombre seuil de blessures et de décès et de voitures conduisant stupidement que nous devons voir avant que la NHTSA ne découvre qu'il y a une sorte de défaut dans ces voitures?" Brooks a demandé.

Il a déclaré que la NHTSA n'avait publié que des informations sur l'une des enquêtes sur l'accident de Tesla et a appelé l'agence à être plus transparente.

Un message a été laissé à une porte-parole de la NHTSA sollicitant des commentaires sur la durée des enquêtes.

En plus des équipes d'enquête sur les accidents, la NHTSA a déjà ouvert deux enquêtes officielles sur les systèmes avancés d'assistance à la conduite de Tesla. L'une implique des plaintes selon lesquelles les véhicules freinent de manière inattendue sans raison, et l'autre découle de accidents dans des véhicules d'urgence garés sur les routes avec feux clignotants.

La NHTSA n'a rendu publique aucune mesure d'exécution concernant l'une ou l'autre des enquêtes. L'agence a également ordonné aux constructeurs automobiles et aux entreprises de technologie de signaler les accidents impliquant des systèmes automatisés.

Dans l'enquête sur le "freinage fantôme", l'agence a déclaré que plus de 750 propriétaires de Tesla se sont plaints que des voitures fonctionnant avec des systèmes de conduite partiellement automatisés se sont soudainement arrêtées sur les routes sans raison apparente.

En ouvrant l'enquête, l'agence a déclaré qu'elle enquêtait sur des véhicules équipés de fonctions d'assistance à la conduite automatisées telles que le régulateur de vitesse adaptatif et le "pilote automatique", qui leur permet de freiner et de se diriger automatiquement dans leurs voies.

"Les plaignants signalent que la décélération rapide peut se produire sans avertissement, et souvent à plusieurs reprises au cours d'un seul cycle de conduite", a déclaré l'agence.

De nombreux propriétaires ont écrit dans leurs plaintes qu'ils craignaient un accident par l'arrière sur une autoroute.

Bien que Tesla appelle l'un de ses systèmes "Full Self Driving", même le PDG Elon Musk admet qu'il n'est pas prêt à conduire tout seul. L'autre système, appelé "pilote automatique", maintient une voiture centrée dans sa voie et à distance des véhicules qui la précèdent. Dans les deux cas, Tesla affirme qu'il s'agit de systèmes d'assistance à la conduite et que les conducteurs doivent être prêts à intervenir à tout moment.

Les critiques disent que les humains deviennent trop dépendants des systèmes lorsqu'ils ne sont pas capables de gérer toutes les situations.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd