Incidents associés

La National Highway Traffic Safety Administration (NHTSA) a publié un rapport accablant sur les systèmes d'aide à la conduite de niveau 2 de Tesla, appelés Autopilot and Full Self-Driving. Plus de 750 propriétaires de Tesla ont signalé que leurs véhicules se sont mystérieusement arrêtés sur les routes sans raison claire. Bien que cela devrait être une préoccupation pour Tesla, c'est aussi loin d'être le seul problème de sécurité auquel la technologie semi-autonome du constructeur automobile a été confrontée.
Depuis l'introduction de fonctionnalités portant des noms tels que "Pilote automatique" et "Conduite entièrement autonome", Tesla a été critiquée pour avoir surestimé les capacités de ce qui n'est encore qu'un système d'assistance à la conduite qui nécessite toujours une vigilance constante de la part de la personne au volant. Les préoccupations linguistiques ne sont cependant qu'une partie du problème; la base même de la technologie a été truffée de défauts qui sont découverts par les consommateurs ordinaires qui testent le logiciel sur la voie publique.
Dans ce dernier problème de freinage fantôme, la NHTSA a demandé plus d'informations à Tesla sur les 750 plaintes. De l'Associated Press :
Dans la lettre, la NHTSA demande la vitesse initiale du moment où les voitures ont commencé à freiner, la vitesse finale et la décélération moyenne. Il demande également si les systèmes automatisés ont détecté un obstacle cible et si Tesla dispose d'une vidéo des incidents de freinage.
L'agence recherche maintenant des informations sur les demandes de garantie pour le freinage fantôme, y compris les noms des propriétaires et les réparations effectuées. Il recherche également des informations sur les capteurs de Tesla, tout test ou enquête sur les problèmes de freinage, ou si des modifications ont été apportées.
La lettre se concentre sur les tests de Tesla sur les systèmes automatisés en ce qui concerne la détection des ponts métalliques, des courbes en forme de S, du trafic venant en sens inverse et transversal, et de différentes tailles de véhicules, y compris les gros camions. L'agence souhaite également des informations sur la manière dont les caméras gèrent les reflets, les ombres, les reflets et les blocages dus à la neige ou à de fortes pluies.
En 2017, le pilote automatique a dirigé un homme dans une barrière en béton à 113 km/h, un accident mortel ; le conducteur, a-t-on découvert, utilisait son téléphone portable et n'avait peut-être pas remarqué que sa Tesla avait pris un virage serré. Cependant, le National Transportation Safety Board a constaté que, dans ce cas, il était probable que le pilote automatique Tesla n'avait même pas été programmé pour reconnaître les barrières en béton et ne serait donc pas programmé pour s'arrêter pour une.
L'incapacité à reconnaître certains objets a entraîné la mort de deux conducteurs dont les véhicules n'ont pas su s'arrêter pour les semi-remorques. Teslas ne savait pas non plus s'arrêter pour les véhicules d'urgence qui auraient pu être garés sur le bord de la route ou dans une voie de circulation, ce qui a entraîné au moins 12 accidents signalés. Lorsque la version bêta de la conduite autonome complète a été publiée, la qualité des virages à gauche d'une Tesla a diminué à mesure que les utilisateurs continuaient à tester le logiciel ; les voitures visaient également des voies bondées et raclaient des buissons. Consumer Reports a même comparé FSD Beta à un conducteur ivre.
Bien sûr, nous ne pouvons pas ignorer la composante humaine dans ces situations ; Si les conducteurs avaient été attentifs, ils auraient probablement réalisé le début d'une situation dangereuse et auraient pu effectuer des manœuvres d'évitement pour éviter un accident. Après tout, les conducteurs sont techniquement censés avoir les mains sur le volant et les fesses sur un siège afin d'activer le logiciel d'assistance à la conduite de Tesla.
Mais comme Raj Rajkumar, professeur d'ingénierie électrique et informatique à l'Université Carnegie Mellon qui étudie les véhicules automatisés, a déclaré à CBS News : « Il est très facile de contourner la pression de direction. Cela dure depuis 2014. Nous en discutons depuis longtemps maintenant. Chez Jalopnik, nous avons couvert toutes sortes de façons pour un conducteur d'ajouter de la pression au volant sans avoir les mains sur le volant. Et ce capteur de pression n'a été ajouté qu'après que Tesla a été appelé pour cela; l'entreprise a d'abord évité d'en installer un pour économiser de l'argent.
Quelles que soient les découvertes de la NHTSA dans ce nouveau cas de freinage fantôme, le fait même que les systèmes d'assistance à la conduite semi-autonomes de Tesla fassent constamment l'objet d'un examen minutieux devrait être un signal d'alarme pour le constructeur automobile lui-même, les consommateurs, les autres conducteurs et les organismes de réglementation. Cela devrait également soulever des questions importantes alors que nous poursuivons sur cette tendance des véhicules autonomes : combien de tests sont nécessaires avant qu'un véhicule semi-autonome ne prenne la route ? Combien de réglementations faudrait-il pour garantir la sécurité de ces technologies ? Et pourquoi utilisons-nous des pilotes conventionnels comme bêta-testeurs pour des logiciels qui laissent perplexe tout le monde, des ingénieurs aux éthiciens ?