Incidents associés
Un propriétaire de Tesla a signalé qu'il avait écrasé son Cybertruck contre un poteau après avoir heurté un trottoir alors qu'il utilisait la conduite entièrement autonome, le système avancé d'assistance à la conduite de Tesla qui, selon Elon Musk, ne sera pas supervisé cette année.
Le message est devenu viral.
Jonathan Challinger, un développeur de logiciels basé en Floride travaillant pour Kraus Hamdani Aerospace, a signalé dans un article viral sur X qu'il avait écrasé son Cybertruck contre un poteau.
Il a indiqué qu'il conduisait en utilisant le système de conduite entièrement autonome de Tesla, une suite de fonctionnalités avancées d'assistance à la conduite (ADAS) qui nécessitent la supervision du conducteur à tout moment. Cependant, Tesla affirme qu'il fonctionnera bientôt sans supervision du conducteur, d'où son nom.
Challinger a déclaré qu'il conduisait avec le FSD v13.2.4 sur la voie de droite, qui se terminait et fusionnait dans la voie de gauche, mais la voiture n'a pas réussi à se fondre et a heurté le trottoir.
Il a déclaré qu'il n'avait pas réagi à temps et pris le contrôle du Cybertruck :
Il n'a pas réussi à sortir d'une voie qui se terminait (il n'y avait personne à ma gauche) et n'a fait aucune tentative de ralentir ou de tourner avant d'avoir déjà heurté le trottoir.
Le Cybertruck a ensuite percuté un lampadaire. Il a eu de la chance de traverser le passage sans une égratignure.
Pour être juste, c'était un endroit étrange pour un poteau, mais il n'y a aucune raison pour que le Tesla FSD n'ait pas changé de voie et même s'il n'avait pas changé de voie, il aurait dû heurter le trottoir ou le poteau (photos) via TroyTeslike):


Challinger a déclaré qu'il avait partagé l'histoire comme un « message d'intérêt public » pour dire aux gens de rester attentifs lorsqu'ils utilisent le système de conduite entièrement autonome de Tesla et de ne pas devenir complaisants :
Gros échec de ma part, évidemment. Ne faites pas la même erreur que moi. Faites attention. Cela peut arriver. Je suis Tesla et FSD de très près et je n'ai jamais entendu parler d'accident sur V13 avant que cela ne se produise. Il est facile de devenir complaisant maintenant - ne le faites pas.
Il pourrait s'agir du premier accident sur le dernier FSD v13 de Tesla, que le PDG Elon Musk a présenté comme "époustouflant" et une étape importante vers la réalisation de la "conduite autonome sans surveillance" d'ici la fin de l'année.
Musk et ses influenceurs Tesla partagent souvent des vidéos FSD affirmant que la technologie est "sur le point de devenir véritablement autonome", malgré des données indiquant que Tesla est encore à des années d'y parvenir.
Le point de vue d'Electrek
Ce type a de la chance d'être en vie, et il a raison. Il y a un problème avec les gens qui deviennent complaisants avec la FSD, et Tesla, et surtout Elon Musk, ne font pas assez pour empêcher que cela se produise.
Au contraire, Musk continue de vanter chaque mise à jour, comme si Tesla était sur le point de résoudre le problème de la conduite autonome, et affirme que son rapport trimestriel sur la sécurité prouve que la FSD est plus sûre que la conduite humaine, ce qui est trompeur.
Meilleur commentaire de Dean Myerson
Aimé par 19 personnes
J'avais auparavant une voiture avec maintien de voie complet, pas de conduite autonome. Ils disaient de rester attentif, mais sur les longs trajets, j'ai trouvé que c'était impossible. Je veux dire, si vous devez rester aussi attentif, vous pouvez aussi bien conduire à fond. Je ne l'ai utilisé que pour de courts trajets, en quelque sorte comme une nouveauté.
Si Tesla développait FSD dans le vide sans les affirmations d'Elon selon lesquelles le problème serait résolu chaque année au cours des 5 dernières années et que Tesla vendait le progiciel aux clients sans aucune idée claire du moment où il peut être réalisé ou sur quel matériel, ce serait un produit célébré.
Au lieu de cela, c'est un produit qui fait perdre à Tesla sa crédibilité et qui est potentiellement dangereux, comme nous le voyons aujourd'hui.
J'ai moi-même eu exactement le même problème que celui décrit par Challinger lorsqu'une voie se termine, mais FSD ne le détecte pas. C'est bizarre parce que cela fonctionne la plupart du temps, ce qui permet d'avoir ce sentiment de complaisance et de donner au système une chance de bouger. Dans ce cas, c'est manifestement allé trop loin.
Soyez prudents et arrêtez de croire Elon Musk lorsqu'il parle de conduite autonome.