Incidents associés

De nouvelles images viennent de tomber sur un accident de conduite autonome de Tesla qui a provoqué un carambolage sur le pont de la baie de San Francisco – un accident grave qui a même entraîné la blessure d'un tout-petit.
Obtenues par The Intercept via une demande de la California Public Records Act, les images de la caméra de sécurité du crash du 24 novembre 2022 semblent pour corroborer les témoignages oculaires, la voiture basculant brusquement dans la voie rapide de l'un des passages souterrains du pont avant de freiner, entraînant un carambolage de huit voitures.
Comme le note le rapport d'Intercept, neuf personnes, dont un enfant de deux ans, ont été [blessées dans l'accident](https://www.kron4.com/news/bay-area/thanksgiving-bay-bridge-crash- peut-avoir-impliqué-telsa-en-mode-de-conduite-autonome/).
J'ai obtenu des images de surveillance de la Tesla autonome qui s'est brusquement arrêtée sur le Bay Bridge, entraînant un accident de huit véhicules qui a blessé 9 personnes, dont un enfant de 2 ans, quelques heures seulement après que Musk a annoncé la fonction de conduite autonome.
Article complet : https://t.co/LaEvX9TzxW pic.twitter.com/i75jSh2UpN
— Ken Klippenstein (@kenklippenstein) 10 janvier 2023
L'accident du jour de Thanksgiving s'est produit quelques heures seulement après que le PDG de Tesla est allé sur Twitter pour annoncer que les tests bêta controversés de conduite autonome complète (FSD) de la société seraient disponibles pour tous Conducteur nord-américain qui l'a demandé.
Selon un California Highway Patrol report, le conducteur a dit à la police qu'il utilisait le FSD quand soudain, la voiture est partie clignotant et freins activés. Le conducteur a également semblé suggérer que la voiture s'est conduite dans la voie la plus à gauche avant de "ralentir jusqu'à s'arrêter" juste devant une autre voiture, catalysant le carambolage.
Dis moi pourquoi
Ce dernier exemple du problème croissant entourant les capacités du pilote automatique et du FSD de Tesla est particulièrement flagrant en raison de son timing le jour de Thanksgiving – et le jour même où Musk l'a étendu à tous les utilisateurs nord-américains.
Ajoutez cette nouvelle séquence et cet accident devient un exemple parfait de la raison pour laquelle les autorités fédérales et les consommateurs sont [si préoccupés] (https://futurism.com/tesla-nhtsa-autopilot-report) à propos des efforts d'automatisation de Tesla, que le gouvernement fédéral régulateurs soupçonnés d'être bien plus meurtriers que les logiciels de conduite assistée proposés par d'autres constructeurs de véhicules électriques.
Le rapport Intercept note qu'en dépit de ce problème de plus en plus alarmant, cependant, il n'y a toujours pas de réglementation fédérale sur les tests de véhicules autonomes dans les livres, bien que certains États aient [commencé à mettre en œuvre leurs propres restrictions](https://www. ghsa.org/state-laws/issues/autonomous%20vehicles).