Incidents associés

Une vidéo de Taïwan révèle un accident inquiétant de Tesla TSLA + 0,4%, où le véhicule s'écrase directement sur le dessus d'un gros camion couché sur le côté, à cheval sur deux voies d'une autoroute. Le conducteur déclare que le véhicule était en mode pilote automatique. Le conducteur n'a lui-même freiné que bien trop tard, ce qui indique qu'il n'y prêtait probablement pas attention. La route est peu fréquentée et la visibilité est très bonne. Personne n'a été blessé.
La vidéo montre l'événement sous plusieurs angles, et soulève plusieurs questions :
-
Pourquoi le pilote automatique Tesla ne perçoit-il pas un obstacle aussi grand sur la route que celui-ci, avec son utilisation de caméras et de radars ?
-
Pourquoi le système de freinage d'urgence Tesla ne freine-t-il pas pour le conducteur du camion, qui se tient dans la voie dans un effort malavisé pour empêcher les voitures de heurter son camion ? Lorsque la Tesla ne s'arrête pas, il saute dans l'épaule et est indemne.
-
Des cartes ou le LIDAR auraient-ils évité cet accident ?
-
Quelle attention le conducteur de la Tesla a-t-il accordée à la route et quel rapport cela a-t-il ?
-
Le pilote automatique était-il réellement activé comme le prétend le conducteur de Tesla ?
Nous pouvons commencer par le n ° 4 - le pilote automatique de Tesla est un système d'assistance à la conduite et il oblige les conducteurs à faire attention à la route à tout moment, et met la responsabilité des accidents sur ces conducteurs. Les conducteurs doivent remuer le volant de temps en temps pour prouver qu'ils gardent la main dessus, mais leur regard n'est pas suivi comme c'est le cas dans certaines voitures. Ce conducteur n'a peut-être pas prêté beaucoup d'attention - le camion est aussi simple qu'un obstacle peut l'être sur une route assez vide - bien qu'il ait freiné juste avant l'impact. Il y a donc clairement une faute du conducteur ici. Cependant, Tesla dit régulièrement que leurs systèmes sont très proches d'être capables d'une véritable conduite autonome, et un système qui le fait est loin d'être prêt pour cela.
Cette incapacité à percevoir est si flagrante qu'il faut se demander si le pilote automatique était réellement activé. Tesla a refusé de commenter cela. Cependant, étant donné que le conducteur n'était manifestement pas attentif et que la voiture roulait assez droit dans la voie avant l'accident, il semble qu'elle ait été allumée. De plus, le "freinage d'urgence automatique" de Tesla n'est généralement jamais désactivé à moins d'être désactivé manuellement, tout comme les systèmes d'avertissement de collision.
Manquer un camion
La réponse à manquer un camion est raisonnablement bien connue. Les systèmes de vision par ordinateur reconnaissent les choses sur lesquelles ils ont été formés. Voir le toit d'un camion sur la route n'est pas un événement courant. Les classificateurs d'images de Tesla ne se sont probablement pas beaucoup entraînés sur les camions couchés sur le côté de la route. L'arrière d'un camion qu'ils identifieront, et maintenant, peut-être le côté d'un camion debout.
Les simulations faites par Cognata de cet accident suggèrent qu'il est possible que l'appareil photo ait été réglé sur une exposition trop lumineuse, et que le camion blanc brillant n'était qu'une tache surexposée. Les journaux vidéo d'une Tesla seraient nécessaires pour confirmer si cela était vrai.
Le deuxième problème est le radar. Généralement, le radar de la Tesla aura reçu de fortes réflexions sur ce camion. (Notez que le toit n'est pas en métal, cependant.) Cependant, ces retours radar indiqueraient que le camion est un objet stationnaire, tout comme la haie au milieu de la route, qui donnera également des retours radar. La résolution radar ne peut pas toujours distinguer quelque chose au milieu de la route de quelque chose dans la voie de gauche. De plus, la route tourne vers la droite ici, et il y a donc des objets médians directement le long du chemin de la voie, et la voiture ne doit pas freiner lorsqu'elle les détecte.
Ci-dessous, nous allons explorer comment les cartes pourraient résoudre cette question radar.
Manque un piéton
L'une des raisons de se demander si le pilote automatique était activé est que le système de vision est bien formé sur les piétons et devrait maintenant être au point de ne presque jamais les manquer. Les piétons ne sont pas attendus sur les autoroutes (c'est pourquoi les conducteurs humains les heurtent souvent) mais ils doivent quand même être détectés. Et il y aurait également eu un radar du piéton, mais il ne montait ou ne descendait pas sur la route et le même problème de radar émerge.
Même le système AEB de Tesla (qui n'est généralement jamais éteint) aurait dû réagir à ce piéton. Si c'était le cas, il aurait dû alerter le conducteur et freiner lui-même beaucoup plus tôt.
Cartes et LIDAR
Malheureusement, encore une fois, deux technologies que Tesla a déconseillées en tant que "béquilles" - le LIDAR et les cartes détaillées au niveau des voies, auraient pu sauver la situation. Le LIDAR aurait détecté très clairement le camion et déclenché le freinage rapidement, cela ne fait aucun doute. Même le LIDAR sans balayage le plus basique aurait fait cela.
Les cartes auraient peut-être parlé du profil radar de cette section de route. Alors qu'ils auraient dit au véhicule de s'attendre à des retours radar de la médiane, il connaîtrait leur caractère. Les retours radar d'un gros camion comme celui-ci seraient plus forts. En particulier, le fait que le camion s'étende sur 2 voies aurait dû suffire à détecter que quelque chose était arrêté dans la voie de droite, signe de prudence. Les cartes auraient révélé la courbe de la route devant qui place les cibles radar dans la médiane directement devant, mais elles indiqueraient également la distance exacte à ces cibles qui serait bien plus éloignée que la distance au camion ou au chauffeur du camion.
Il est déconcertant de comprendre pourquoi une grande surface plane et le grand corps de métal n'ont pas fourni une signature radar suffisante pour déclencher le système radar de Tesla.
Attention conducteur
Les instructions de Tesla exigent des conducteurs qu'ils fassent attention à la route. Certains ne le font pas, cependant. Certains produits tentent d'empêcher cela en surveillant le regard du conducteur et en avertissant que l'on détourne le regard de la route trop longtemps. Tesla a décidé de ne pas utiliser cette approche. Cela indique un bon dossier de sécurité pour le pilote automatique comme preuve que ce n'est pas nécessaire. (Tesla refuse cependant de clarifier ce que signifient réellement leurs statistiques de sécurité, car elles ne disent pas ce qu'est un accident, ni quel est le record sur différents types de routes, dans leurs comparaisons.)
Le débat sur le degré de surveillance des conducteurs nécessaire se poursuivra pendant un certain temps.
En tant que système d'aide à la conduite, Tesla Autopilot ne devrait pas tout capter sur la route, et donc si les conducteurs ne font pas attention, il y aura des accidents. Mais manquer un camion géant et un piéton, c'est un peu trop pour un système qui est également à la base d'un prétendu système de « conduite entièrement autonome ». Cela réduit la confiance dans le moment où un tel système peut réellement être livré. On ne sait pas si cette Tesla avait le nouveau matériel de Tesla capable d'exécuter les pilotes automatiques les plus avancés. Tesla a refusé de commenter.