Incidents associés
Un tweet viral montrait une Tesla confondant la lune avec un feu jaune.
La technologie Full Self-Driving de la société a déjà commis des erreurs similaires.
Les propriétaires disent que leurs voitures ont été trompées par les panneaux d'affichage et les enseignes Burger King.
Le PDG de Tesla, Elon Musk, promet depuis des années que des véhicules entièrement autonomes sont à l'horizon.
Mais la technologie Full Self-Driving de son entreprise ne porte toujours pas son nom. Et malgré l'objectif de Musk de rendre le système plus sûr qu'un conducteur humain, il échoue actuellement à des choses auxquelles tout conducteur humain ne penserait pas à deux fois.
Par exemple, un propriétaire de Tesla a publié jeudi sur Twitter un clip qui montrait que son véhicule confondait sans cesse la lune avec un feu de circulation alors qu'il roulait sur l'autoroute.
Le clip montre une lune inhabituellement jaune et basse dans le ciel, on peut donc voir pourquoi la voiture pourrait l'enregistrer comme une lumière jaune et appliquer les freins. Un autre propriétaire a répondu avec sa propre vidéo montrant le même scénario.
Pourtant, la lune est une constante – pas un cas extrême – et c'est quelque chose que tout système de conduite autonome digne de ce nom devrait identifier comme étant à des centaines de milliers de kilomètres, pas seulement devant. De plus, le fait qu'une voiture ralentisse de façon inattendue à des vitesses d'autoroute pourrait créer une situation dangereuse pour le conducteur et la circulation environnante.
Pour être juste, Tesla ne prétend pas encore que la conduite entièrement autonome peut parfaitement réagir aux feux de circulation et aux panneaux d'arrêt. La fonction "Traffic Light and Stop Sign Control", publiée via une mise à jour logicielle au début de 2020, est toujours en version bêta et les propriétaires doivent l'activer manuellement.
Mais il n'y a pas que la lune qui trompe Teslas. Les propriétaires ont également signalé que leurs véhicules confondaient le soleil avec un feu rouge. Et un clip étrange montre une Tesla se faire embobiner par un camion transportant des feux de circulation.
En avril, un propriétaire de Tesla a remarqué que sa voiture s'arrêtait toujours complètement au même endroit au milieu d'une route. Une vidéo qu'il a publiée montre que son véhicule confond l'image d'un panneau d'arrêt sur un panneau d'affichage avec la réalité.
Peu de temps après que Tesla a lancé la fonction de détection des feux de signalisation en avril 2020, un propriétaire de Tesla a publié une vidéo de sa voiture confondant un panneau Burger King en bordure de route avec un panneau d'arrêt. La voiture commence à ralentir sur la route à 40 mph avant de se rendre compte qu'il n'y a pas de panneau d'arrêt et de continuer.
Tesla a résolu le bug de Burger King dans une mise à jour logicielle ultérieure. Pourtant, la chaîne de restauration rapide a tenté de capitaliser sur le problème en lançant une promotion Whopper gratuite pour tout propriétaire de Tesla dont la voiture s'est accidentellement arrêtée à un panneau Burger King.
En juillet, le constructeur automobile a lancé une option d'abonnement pour Full Self-Driving, faisant passer son prix d'un paiement initial de 10 000 $ à aussi peu que 99 $ par mois. Mais, comme le montrent ces bogues, le système ne rend pas les voitures autonomes et on ne sait toujours pas quand il le fera.
En attendant, il est sans doute plus sûr pour Teslas de reconnaître trop de feux de circulation et de panneaux d'arrêt que trop peu.