Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4761

Incidents associés

Incident 9408 Rapports
Tesla Cybertruck Operating in Full Self-Driving Mode Reportedly Crashes into Pole in Nevada After Failing to Merge

Loading...
Un Cybertruck de Tesla s'écrase contre un poteau alors qu'il utilise un logiciel de « conduite entièrement autonome »
pcmag.com · 2025

Un Tesla Cybertruck a percuté un poteau alors qu'il utilisait le logiciel de conduite entièrement autonome (FSD) de Tesla, ce qui soulève des questions sur la chaîne d'événements qui a conduit à la collision.

Le conducteur, Jonathan Challinger, a déclaré que le Cybertruck « n'a pas réussi à sortir d'une voie qui se terminait... et n'a fait aucune tentative pour ralentir ». Il a d'abord heurté un trottoir, puis a percuté le poteau d'éclairage, coupant l'avant du véhicule et arrachant la roue.

Ce tweet n'est actuellement pas disponible. Il est peut-être en cours de chargement ou a été supprimé.

Challinger, un développeur de logiciels de Floride, se reproche de ne pas avoir fait attention et d'être devenu « complaisant ». Dans un précédent post X de janvier, Challinger a écrit sur son habitude de perdre la concentration avec le FSD activé : « Parfois, je décide d'aller quelque part et j'active le FSD de Tesla, puis j'oublie où j'ai décidé d'aller et puis ça commence à se transformer en Taco Bell ou autre et je me dis qu'est-ce que ça fait et puis je me dis oh oui, Taco Bell. »

Le système de Tesla est censé avertir les conducteurs à plusieurs reprises s'ils ne font pas attention. Conformément au manuel du propriétaire de Tesla, le véhicule doit émettre une série d'avertissements intensifiés si le conducteur ne fait pas attention. Il leur sera également demandé de poser leurs mains sur le volant. Si le conducteur ignore ces instructions à plusieurs reprises, le FSD se désactive pour le reste du trajet.

« Je ne m'attends pas à ce que le FSD soit infaillible, mais je n'avais certainement pas de poteau électrique devant moi alors que je conduisais lentement sur une route vide sur ma carte de bingo », déclare Challinger [(https://x.com/MrChallinger/status/1888840686751154353).

Comme le note Electrek, citant Troy Teslike, un passionné de Tesla, le poteau est dans une position inconfortable, dépassant de l'accotement. Mais le Cybertruck aurait dû être capable de voir les flèches de fusion et de changer de voie avant la collision.

Challinger a tagué Tesla dans son message et a proposé de l'aider à trouver la raison de l'accident, espérant « aider à sauver d'autres personnes du même sort ou de bien pire ». Étonnamment, il a remercié Tesla pour la robustesse de l'ingénierie du véhicule ; il n'a pas été blessé dans l'accident. Il n'a pas non plus mentionné combien il devra payer pour réparer son véhicule électrique. Un Cybertruck coûte entre 80 000 et 100 000 dollars, plus 8 000 dollars pour la mise à niveau du logiciel de conduite autonome.

Les Cybertrucks n'ont pu utiliser le FSD qu'en septembre, neuf mois après le lancement du véhicule. Étant donné la taille, la forme et le logiciel uniques du véhicule, il a fallu modifier la version du FSD utilisée par les autres véhicules Tesla. Le Cybertruck qui s'est écrasé utilisait une version relativement récente du FSD, la version 13.2.4, que Tesla a publiée en janvier. Il s'agissait principalement de « corrections de bugs », selon. Ce n'est pas une application Tesla, mais les notes de version mentionnent également un système amélioré pour « éviter les collisions ».

Après la mise à jour, un autre conducteur de Cybertruck a signalé un problème de centrage de voie, un autre problème lié à la voie. Cependant, il semble qu'il s'agisse d'un problème récurrent signalé par un autre conducteur sur Reddit après une mise à jour logicielle de décembre 2024.

La National Highway Traffic Safety Administration (NHTSA) enquête actuellement sur le FSD de Tesla pour un problème distinct lié à quatre accidents dans des situations de faible visibilité. Le processus de la NHTSA comprend l'examen du comportement du conducteur et du logiciel dans chaque incident. Lors d'un accident mortel survenu en 2019, il a été confirmé que le pilote automatique de Tesla était activé seulement 10 secondes avant la collision.

Les véhicules Tesla ont été responsables de 40 des 45 accidents mortels signalés à la NHTSA jusqu'au 15 octobre 2024. Le président Trump envisagerait de supprimer l'obligation pour les constructeurs automobiles de signaler tous les accidents impliquant des véhicules autonomes. Le PDG de Tesla, Elon Musk, affirme que la règle cible injustement Tesla, compte tenu du nombre d'incidents et des rapports qu'elle doit fournir à l'organisation. La NHTSA affirme que les informations fournies par la règle de signalement lui permettent de détecter des schémas dans les accidents.

Elon Musk soutient que les véhicules équipés de la technologie FSD sont plus sûrs que les voitures conduites par des humains, avec moins d'accidents par kilomètre parcouru. L'entreprise prévoit de lancer son premier service de robotaxi à Austin en juin.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd