Incidents associés

Dix secondes avant que la Tesla Model 3 de Jeremy Banner ne s'enfonce dans le ventre d'un semi-remorque, il a activé le pilote automatique. L'accident a tué le père de trois enfants lorsque le toit de sa voiture a été arraché, il n'y a donc aucun moyen de savoir exactement ce qui s'est passé ce vendredi de mars il y a trois ans. Mais une enquête du National Transportation Safety Board a révélé que Banner n'avait probablement pas vu le camion traverser une autoroute à deux voies de Floride en se rendant au travail. La fonction d'assistance au conducteur de Tesla ne l'a apparemment pas vue non plus. Du moins pas à temps pour sauver la vie du quinquagénaire.
Un tribunal du comté de Palm Beach a fixé une date en février pour qu'un jury entende des témoignages sur qui était en faute, le premier de potentiellement des dizaines de procès de collision de pilote automatique. D'ici là, attendez-vous à ce que la Twittersphere s'illumine d'arguments passionnés sur une question débattue depuis des années : le nom même de pilote automatique donne-t-il aux conducteurs un faux sentiment de sécurité que leurs voitures conduiront elles-mêmes ? Le procès offre «l'un de ces moments décisifs où nous avons beaucoup d'attention du public sur un verdict, si le jury est sympathique au conducteur et veut envoyer un message à Tesla», explique Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud.
Quel que soit le verdict, cela ajoutera de l'urgence aux appels des législateurs et des défenseurs de la sécurité automobile pour une intervention réglementaire. Une répression a mis du temps à se matérialiser au cours des huit années [d'expérience de conduite automatisée] de Tesla (https://www.bloomberg.com/news/features/2019-10-09/tesla-s-autopilot-could-save-the -des-vies-de-millions-mais-cela-tuera-quelques-personnes-d'abord), mais l'idée a pris de l'ampleur sous l'administration Biden, la National Highway Traffic Safety Administration menant des enquêtes sur plusieurs fronts.
Le PDG Elon Musk insiste sur le fait que les Tesla sont les voitures les plus sûres jamais fabriquées, mais l'essai comprendra un défilé d'experts en technologie témoignant des dangers de la commercialisation de l'assistance à la conduite d'une manière qui conduit à un excès de confiance. "Une grande partie de l'importance de l'affaire est qu'elle est en fait menée dans un forum public", a déclaré Michael Brooks, avocat en chef au Center for Auto Safety, un groupe de défense des consommateurs.
Tesla a longtemps dit qu'il était clair sur les limites du système, citant un langage fort dans ses manuels du conducteur. Et le site Web de la société indique que les fonctionnalités du pilote automatique "nécessitent une supervision active du conducteur et ne rendent pas le véhicule autonome". Musk insiste sur le fait que l'utilisation appropriée du pilote automatique par des conducteurs attentifs a sauvé bien plus de vies qu'il n'en a été perdu dans les accidents. "Dans l'esprit des investisseurs, Tesla a déjà sa défense, et ils l'ont toujours achetée : les humains sont de mauvais conducteurs", déclare Gene Munster, associé directeur de Loup Ventures, une société d'investissement qui suit Tesla mais n'est pas liée à l'affaire.
La NHTSA indique qu'au moins 18 décès pourraient être liés à la technologie d'assistance à la conduite. L'agence a enquêté sur près de 200 accidents impliquant des véhicules utilisant cette fonctionnalité, dont certains dans lesquels Teslas a des voitures de police ou des camions de pompiers garés le long des routes. Et le Département des véhicules automobiles de Californie en août a accusé la société de publicité mensongère, affirmant que cela induisait les clients en erreur en leur faisant croire que le pilote automatique et les fonctionnalités améliorées de « conduite autonome complète » sont plus sophistiquées qu'elles ne le sont.
Lake Lytal, un avocat de la famille de Banner, considère le procès comme une opportunité "pour enfin tenir Tesla et Elon Musk responsables de l'utilisation des voies publiques dans tout notre pays comme terrain d'essai pour cette entreprise pour essayer de réparer leur système de pilote automatique défectueux, qu'ils connaissent". a tué et continuera de tuer ses clients. Tesla et son équipe juridique n'ont pas répondu aux demandes de commentaires.
Musk est épineux à propos de la critique publique du pilote automatique. En 2018, il a raccroché à Robert Sumwalt, alors président du NTSB, après que Sumwalt l'ait pris à partie pour des articles de blog rejetant la faute sur le conducteur d'un modèle X pour un accident mortel. En octobre dernier, lorsque le président Joe Biden a nommé la professeure de l'Université Duke Mary Cummings en tant que conseillère principale en matière de sécurité auprès de la NHTSA, Musk et des milliers de [fans de Tesla ont protesté] (https://www.bloomberg.com/news/articles/2021-10- 20/tesla-fans-musk-in-uproar-as-nhtsa-taps-biased-safety-adviser) sur Twitter en raison de son passé de sceptique vocale envers Autopilot, faisant circuler une pétition l'accusant de partialité.
Plus récemment, une fureur a éclaté à propos d'une vidéo virale sur YouTube d'une Tesla roulant sur un mannequin de test de collision de taille enfant alors qu'elle fonctionnait prétendument en mode Full Self-Driving. En réponse, certains propriétaires de Tesla ont publié des vidéos de leurs véhicules s'arrêtant en toute sécurité devant de vrais enfants, incitant la NHTSA à émettre un avertissement ["n'essayez pas cela à la maison"] (https://www.bloomberg.com/news/ articles/2022-08-17/don-t-use-your-kids-to-test-tesla-s-safety-features-nhtsa-warns).
L'essai mettra en vedette des ingénieurs de Tesla et des experts extérieurs. Ceux-ci incluent [Christopher "CJ" Moore](https://www.bloomberg.com/news/articles/2021-10-21/tesla-engineer-who-quit-wanted-as-witness-in-key-autopilot- trial), un ancien membre de l'équipe de direction de l'Autopilot de l'entreprise, qui travaille maintenant pour Apple Inc. Après avoir interrogé Moore l'année dernière, les responsables de California DMV ont conclu que certains des tweets de Musk capacités exagérées du pilote automatique. Une personne que le jury n'entendra probablement pas est Musk. Un juge a statué que l'entrepreneur milliardaire n'avait pas à siéger pour une déposition, rejetant l'argument des bannières selon lequel Musk avait une "connaissance unique" des problèmes de l'affaire.
Le plus problématique pour Tesla est peut-être ce que la procédure révèle sur les lacunes de la technologie. Le public aura son premier aperçu des trésors de données que Tesla recueille, y compris des informations granulaires sur le pilote automatique, selon Dana Taschner, une avocate en dommages corporels qui a représenté des victimes d'accidents attribués à des défauts. "Les ingénieurs de Tesla seront à la barre pour témoigner sous serment sur des données et des statistiques qui sont très, très soigneusement gardées", a-t-il déclaré.
L'essai a également des ramifications pour des entreprises telles qu'Apple et Alphabet Inc.'s Waymo, qui développent des véhicules autonomes, et des constructeurs automobiles conventionnels tels que BMW et Mercedes-Benz qui investissent massivement dans des voitures dotées de fonctions de conduite automatisées. Pour ces fabricants et leurs innombrables fournisseurs, le procès est une source de préoccupation en raison de ce qu'il dit sur la responsabilité.
Le poursuite de la famille Banner a ses faiblesses, en particulier une enquête sur l'accident par le NTSB qui a révélé qu'il y avait des reproches à faire. Les enquêteurs ont déclaré que le chauffeur du camion n'avait pas cédé le passage et reproché à Banner son "inattention due à une dépendance excessive à l'automatisation". Mais dans un rapport de 2020, l'agence a critiqué la technologie de Tesla pour ne pas suffisamment surveiller et appliquer l'engagement des conducteurs. "Le système de pilote automatique n'a pas envoyé d'avertissement visuel ou sonore au conducteur pour qu'il remette les mains sur le volant", indique le rapport.
Le NTSB est parvenu à des conclusions similaires dans un rapport de 2017 sur un accident remarquablement similaire dans le nord de la Floride, impliquant également un accident mortel dans un semi-remorque que les capteurs de la voiture n'ont pas détecté. En octobre dernier, l'agence a réprimandé Tesla pour ne pas avoir répondu à ses recommandations de 2017, notamment en limitant les endroits où le pilote automatique peut être activé et en veillant à ce que les conducteurs soient attentifs lors de l'utilisation de la fonctionnalité.
Les conclusions du NTSB sur les causes de l'accident de Banner ne sont pas autorisées comme preuve en vertu de la loi fédérale. Mais des experts indépendants pourraient utiliser le rapport comme une «feuille de route» pour rétablir les mêmes conclusions, explique Peter Goelz, ancien directeur général du NTSB. Pour Musk, les enjeux ne pourraient pas être plus élevés. Après tout, il a déclaré que la technologie d'auto-conduite complète est la différence entre le fait que Tesla "vale pratiquement zéro" et en fait l'une des sociétés les plus précieuses au monde. "La technologie est si fondamentale pour l'attrait de la voiture", déclare Goelz. "Je ne pense pas que Tesla va céder un pouce."