Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4760

Incidents associés

Incident 9408 Rapports
Tesla Cybertruck Operating in Full Self-Driving Mode Reportedly Crashes into Pole in Nevada After Failing to Merge

Loading...
Le crash du Tesla Cybertruck sur le Full Self-Driving v13 devient viral
electrek.co · 2025

Un propriétaire de Tesla a signalé qu'il avait écrasé son Cybertruck contre un poteau après avoir heurté un trottoir alors qu'il utilisait la conduite entièrement autonome, le système avancé d'assistance à la conduite de Tesla qui, selon Elon Musk, ne sera pas supervisé cette année.

Le message est devenu viral.

Jonathan Challinger, un développeur de logiciels basé en Floride travaillant pour Kraus Hamdani Aerospace, a signalé dans un article viral sur X qu'il avait écrasé son Cybertruck contre un poteau.

Il a indiqué qu'il conduisait en utilisant le système de conduite entièrement autonome de Tesla, une suite de fonctionnalités avancées d'assistance à la conduite (ADAS) qui nécessitent la supervision du conducteur à tout moment. Cependant, Tesla affirme qu'il fonctionnera bientôt sans supervision du conducteur, d'où son nom.

Challinger a déclaré qu'il conduisait avec le FSD v13.2.4 sur la voie de droite, qui se terminait et fusionnait dans la voie de gauche, mais la voiture n'a pas réussi à se fondre et a heurté le trottoir.

Il a déclaré qu'il n'avait pas réagi à temps et pris le contrôle du Cybertruck :

Il n'a pas réussi à sortir d'une voie qui se terminait (il n'y avait personne à ma gauche) et n'a fait aucune tentative de ralentir ou de tourner avant d'avoir déjà heurté le trottoir.

Le Cybertruck a ensuite percuté un lampadaire. Il a eu de la chance de traverser le passage sans une égratignure.

Pour être juste, c'était un endroit étrange pour un poteau, mais il n'y a aucune raison pour que le Tesla FSD n'ait pas changé de voie et même s'il n'avait pas changé de voie, il aurait dû heurter le trottoir ou le poteau (photos) via TroyTeslike):

Challinger a déclaré qu'il avait partagé l'histoire comme un « message d'intérêt public » pour dire aux gens de rester attentifs lorsqu'ils utilisent le système de conduite entièrement autonome de Tesla et de ne pas devenir complaisants :

Gros échec de ma part, évidemment. Ne faites pas la même erreur que moi. Faites attention. Cela peut arriver. Je suis Tesla et FSD de très près et je n'ai jamais entendu parler d'accident sur V13 avant que cela ne se produise. Il est facile de devenir complaisant maintenant - ne le faites pas.

Il pourrait s'agir du premier accident sur le dernier FSD v13 de Tesla, que le PDG Elon Musk a présenté comme "époustouflant" et une étape importante vers la réalisation de la "conduite autonome sans surveillance" d'ici la fin de l'année.

Musk et ses influenceurs Tesla partagent souvent des vidéos FSD affirmant que la technologie est "sur le point de devenir véritablement autonome", malgré des données indiquant que Tesla est encore à des années d'y parvenir.

Le point de vue d'Electrek

Ce type a de la chance d'être en vie, et il a raison. Il y a un problème avec les gens qui deviennent complaisants avec la FSD, et Tesla, et surtout Elon Musk, ne font pas assez pour empêcher que cela se produise.

Au contraire, Musk continue de vanter chaque mise à jour, comme si Tesla était sur le point de résoudre le problème de la conduite autonome, et affirme que son rapport trimestriel sur la sécurité prouve que la FSD est plus sûre que la conduite humaine, ce qui est trompeur.

Meilleur commentaire de Dean Myerson

 Aimé par 19 personnes

J'avais auparavant une voiture avec maintien de voie complet, pas de conduite autonome. Ils disaient de rester attentif, mais sur les longs trajets, j'ai trouvé que c'était impossible. Je veux dire, si vous devez rester aussi attentif, vous pouvez aussi bien conduire à fond. Je ne l'ai utilisé que pour de courts trajets, en quelque sorte comme une nouveauté.

Voir tous les commentaires

Si Tesla développait FSD dans le vide sans les affirmations d'Elon selon lesquelles le problème serait résolu chaque année au cours des 5 dernières années et que Tesla vendait le progiciel aux clients sans aucune idée claire du moment où il peut être réalisé ou sur quel matériel, ce serait un produit célébré.

Au lieu de cela, c'est un produit qui fait perdre à Tesla sa crédibilité et qui est potentiellement dangereux, comme nous le voyons aujourd'hui.

J'ai moi-même eu exactement le même problème que celui décrit par Challinger lorsqu'une voie se termine, mais FSD ne le détecte pas. C'est bizarre parce que cela fonctionne la plupart du temps, ce qui permet d'avoir ce sentiment de complaisance et de donner au système une chance de bouger. Dans ce cas, c'est manifestement allé trop loin.

Soyez prudents et arrêtez de croire Elon Musk lorsqu'il parle de conduite autonome.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd