Incidents associés
Conduire une voiture est un processus complexe. L'expérience du propriétaire du Tesla Cybertruck John Challinger, un développeur de logiciels en Floride, en est un parfait exemple. Il a publié un message sur les réseaux sociaux à 6 h 11 le 9 février 2025 :
Mon @Tesla @cybertruck a percuté un trottoir, puis un lampadaire sur la version 13.2.4.
Merci @Tesla d'avoir conçu la meilleure sécurité passive au monde. Je m'en suis sorti sans une égratignure.
Il n'a pas réussi à sortir d'une voie qui se terminait (il n'y avait personne à ma gauche) et n'a fait aucune tentative de ralentir ou de tourner avant d'avoir déjà heurté le trottoir.
Un gros échec de ma part, évidemment. Ne faites pas la même erreur que moi. Faites attention. Cela peut arriver. Je suis Tesla et FSD de très près et je n'ai jamais entendu parler d'un quelconque accident sur V13 avant que cela ne se produise. Il est facile de devenir complaisant maintenant - ne le faites pas.
@Tesla_AI comment puis-je m'assurer que vous disposez des données dont vous avez besoin sur cet incident ? Le centre de service, etc., a été moins réactif à ce sujet. J'ai les images de la caméra de bord. Je veux le faire savoir sous forme de PSA que cela peut arriver, même sur v13, mais j'hésite parce que je ne veux pas attirer l'attention et je ne veux pas donner de matériel aux ours/haineux.
Diffusez mon message et aidez à sauver d'autres personnes du même sort ou de bien pire.

Crédit Google Maps via PC Magazine.
Mise à jour : notez que cet article indiquait précédemment que l'emplacement du lampadaire se trouvait au milieu d'une voie de circulation et qu'il s'agissait d'un endroit stupide pour installer un lampadaire. En fait, comme les commentateurs l'ont souligné, il ne s'agit pas d'une voie de circulation – il y a des flèches claires indiquant de rester à gauche pour rester dans la voie de circulation bien avant cela, et il s'agit d'une voie de dépose scolaire. Le lampadaire est également utilisé intelligemment ici pour rendre la traversée de la rue plus sûre pour les enfants afin de se rendre à l'école ou de rentrer chez eux.
Pour le contexte, ci-dessus se trouve une image du lampadaire de Google Maps publiée par PC Magazine. Les gens parlent toujours de « cas extrêmes » lorsqu'ils discutent de situations de conduite autonome. Les cas ne sont pas plus risqués que celui-ci, et c'était apparemment trop pour un Cybertruck fonctionnant sur une version récente de Full Self Driving à comprendre.
Pour sa part, Challinger est plutôt décontracté à propos de tout cela et se reproche de ne pas avoir fait attention et d'être devenu « complaisant ». Dans un article précédent de janvier, Challinger a écrit sur son habitude de perdre la concentration avec FSD activé : « Parfois, je décide d'aller quelque part et d'activer Tesla FSD, puis j'oublie où j'ai décidé d'aller et puis ça commence à se transformer en Taco Bell ou autre et je me dis qu'est-ce qu'il fait et puis je me dis oh, c'est vrai, Taco Bell. »
Le système de Tesla est censé avertir les conducteurs à plusieurs reprises s'ils ne font pas attention. Selon le manuel du propriétaire de Tesla, le véhicule doit émettre une série d'avertissements intensifiés si le conducteur ne fait pas attention. Il lui sera également demandé de mettre les mains sur le volant. Si le conducteur ignore ces invites à plusieurs reprises, FSD se désactive pour le reste du trajet. « Je ne m'attends pas à ce que [FSD] soit infaillible, mais je n'avais certainement pas de poteau électrique devant moi alors que je conduisais lentement sur une route vide sur ma carte de bingo », a déclaré Challinger après la collision.
Le Cybertruck n'a pu utiliser le FSD qu'en septembre, neuf mois après le lancement du véhicule. Étant donné sa taille, sa forme et son logiciel uniques, il a fallu modifier le FSD utilisé par d'autres véhicules Tesla. Le Cybertruck qui s'est écrasé utilisait une version relativement récente du FSD --- la version 13.2.4 --- que Tesla a publiée en janvier. Il s'agissait principalement de « corrections de bugs », selon Ce n'est pas une application Tesla, mais les notes de publication mentionnent également un système amélioré pour « éviter les collisions ». Il semble que d'autres améliorations soient nécessaires.
Tesla et le biais de l'automatisation
La partie la plus dangereuse de toute automobile est l'écrou derrière le volant, aimait à dire mon vieux grand-père irlandais. Malgré les multiples protestations d'Elon Musk, accorder trop de confiance et de foi aux systèmes informatiques est un problème. Elon Musk n'y croit pas. Il pense que mettre des avertissements dans le manuel du propriétaire que peu de gens prennent le temps de lire est suffisant, mais les scientifiques ont un nom pour cela. Ils appellent cela le « biais d'automatisation ».
Selon Wikipedia, la tendance à trop se fier aux aides automatisées est connue sous le nom de « mauvaise utilisation de l'automatisation », qui se produit lorsqu'un utilisateur ne surveille pas correctement un système automatisé ou lorsque le système automatisé est utilisé alors qu'il ne devrait pas l'être. Le biais d'automatisation est directement lié à une mauvaise utilisation de l'automatisation par une confiance trop grande dans les capacités du système. Il peut conduire à un manque de surveillance du système automatisé ou à un accord aveugle avec une suggestion d'automatisation et peut alors conduire à des erreurs d'omission et des erreurs de commission. Les erreurs de commission se produisent lorsque les utilisateurs suivent une directive automatisée sans tenir compte d'autres sources d'information. Les erreurs d'omission se produisent lorsque les dispositifs automatisés ne parviennent pas à détecter ou à signaler des problèmes et que les utilisateurs ne les remarquent pas parce qu'ils ne surveillent pas correctement le système.
Les erreurs de commission se produisent pour trois raisons : détournement manifeste de l'attention de l'aide automatisée, diminution de l'attention portée à l'aide ou élimination active d'informations qui contredisent les recommandations de l'aide. Les erreurs d'omission se produisent lorsque le décideur humain ne remarque pas une défaillance de l'automatisation, soit en raison d'un manque de vigilance, soit d'une confiance excessive dans le système. Il a été démontré que la formation axée sur la réduction des biais d'automatisation et des problèmes associés réduit le taux d'erreurs de commission, mais pas d'erreurs d'omission.
La présence d'aides automatiques « diminue la probabilité que les décideurs fassent l'effort cognitif de rechercher d'autres informations de diagnostic ou traitent toutes les informations disponibles de manière cognitivement complexe ». Elle rend également les utilisateurs plus susceptibles de conclure leur évaluation d'une situation trop hâtivement après avoir été incités par une aide automatique à prendre une mesure spécifique. Les trois principaux facteurs qui conduisent au biais d'automatisation sont la tendance humaine à choisir l'approche la moins cognitive pour la prise de décision, la tendance des humains à considérer les aides automatisées comme ayant une capacité analytique supérieure à la leur, et la tendance des humains à réduire leurs propres efforts lorsqu'ils partagent des tâches avec une autre personne ou avec une aide automatisée.
« Faire trop confiance à la technologie est une erreur d'une ampleur stupéfiante », écrit Patricia Hardré de l'Université d'Oklahoma dans un livre sur les raisons pour lesquelles nous accordons parfois trop de confiance aux machines. Selon la BBC, elle soutient que les gens n'ont généralement pas la capacité de juger de la fiabilité d'une technologie spécifique. Cela peut en fait aller dans les deux sens. Nous pouvons rejeter l'aide d'un ordinateur dans des situations où cela nous serait bénéfique ou faire aveuglément confiance à un tel appareil, pour qu'il finisse par nous nuire ou nuire à nos moyens de subsistance.
A quoi cela sert-il ? Tout simplement : Tesla Full Self Driving ne fonctionne pas comme elle le devrait. Pas maintenant, et cela n'a jamais été le cas. Et tant que Musk n'aura pas surmonté son refus infantile d'intégrer le radar et le lidar dans le package matériel de conduite automatisée de Tesla, cela ne fonctionnera jamais. Fin de l'histoire.