Incidents associés

Le tiers supérieur d'une Tesla Model S a été arraché lors d'une collision mortelle avec un camion semi-remorque en Floride l'année dernière. Robert VanKavelaar / Document via Reuters
En mai 2016, l'inévitable s'est produit : un conducteur de Tesla a été tué dans un accident alors que sa voiture était en mode Autopilot, le logiciel de conduite semi-autonome impressionnant mais controversé de la société.
Tesla et les autorités ont signalé à l'époque que la Model S était "passée sous" une semi-remorque qui avait fait un virage à gauche à travers la circulation sur une autoroute de Floride, la remorque cisaillant le haut de la voiture. Mais d'autres détails étaient sommaires, notamment la vitesse à laquelle la Tesla roulait, la façon dont le conducteur n'a pas vu le semi-remorque en plein jour et si le système de pilote automatique du véhicule avait averti le conducteur de quelque manière que ce soit. Le chauffeur du camion a déclaré à l'Associated Press qu'il avait entendu ce qui ressemblait à un film venant de la voiture après qu'elle se soit immobilisée plus loin sur l'autoroute.
Cette semaine, le National Transportation Safety Board a clarifié certaines questions persistantes lorsqu'il a publié les conclusions factuelles de son enquête sur l'accident. Le conducteur était en effet devenu mains libres - et pas seulement un peu. Selon le rapport de 538 pages, le conducteur utilisait le pilote automatique depuis 37 minutes, au cours desquelles il avait placé ses mains sur le volant pendant un grand total de seulement 25 secondes. Ceci malgré sept avertissements visuels distincts du système, qui affichaient le message « Mains requises non détectées ». De toute évidence, le conducteur était déterminé à utiliser le pilote automatique comme s'il s'agissait d'un système de conduite entièrement autonome, plutôt que le mécanisme de sécurité que Tesla dit qu'il est censé être.
Cependant, les informations selon lesquelles le conducteur regardait un film Harry Potter, peut-être sur un lecteur DVD intégré au tableau de bord, semblent avoir été sans fondement. Le principal témoin de l'accident du NTSB, qui a vu la voiture de près après son arrêt, a déclaré qu'aucun système de divertissement audio ou vidéo n'était en cours de lecture. (Le chauffeur du camion qui avait dit à l'AP qu'il pensait avoir entendu un film jouer dans la voiture a admis qu'il n'était pas assez près du véhicule pour voir quoi que ce soit ou pour être certain de ce qu'il avait entendu.)
Nous ne saurons peut-être jamais à quoi le conducteur de la Model S faisait attention au lieu de la route au moment de son accident mortel. Nous savons qu'il n'a pris aucune mesure d'évitement. Le rapport du NTSB indique qu'il avait réglé le logiciel sur une vitesse de croisière de 74 mph peu de temps avant l'accident, et il roulait apparemment toujours à cette vitesse lorsque la voiture a heurté la remorque du camion.
Fait intéressant, cela suggère que le conducteur du camion aurait pu prévoir l'accident, s'il avait supposé que la voiture maintiendrait une vitesse constante. Le témoin a déclaré que la Model S était visible par le camion au-dessus de la crête d'une montée sur l'autoroute pendant "plusieurs secondes" avant que le camion n'entame son virage à gauche. L'implication est que le conducteur n'a pas vu venir la Model S ou a supposé - peut-être naturellement, compte tenu de la taille et de la visibilité du camion - que le conducteur de la Tesla freinerait ou changerait de voie pour éviter la collision. Cela semble être une hypothèse sûre lorsque le conducteur est humain, mais peut-être moins lorsque le conducteur est un système automatisé. (Samuel English Anthony a écrit de manière convaincante l'année dernière sur certains des problèmes d'attentes qui peuvent survenir lorsque des systèmes autonomes et des conducteurs humains partagent la route.)
Pour être clair, c'est une conjecture : le chauffeur du camion a refusé d'être interrogé par le NTSB et aurait affirmé à la Florida Highway Patrol qu'il n'avait pas vu la Tesla venir. Pourtant, cela souligne l'un des gros problèmes des systèmes de conduite autonome, à savoir que leur comportement peut être logique sur le papier mais surprenant pour d'autres conducteurs habitués à partager la route avec d'autres humains.
Le rapport du NTSB ne propose pas encore d'analyse ou de conclusions quant à la responsabilité de l'accident. Cela viendra dans un suivi de cette présentation factuelle de la preuve. Cependant, Reuters rapporte que le chauffeur du camion a été accusé de violation de droit de passage et doit comparaître devant le tribunal mercredi.
La National Highway Traffic Safety Administration a conclu sa propre enquête en janvier sans conclure que le système de pilote automatique de Tesla constituait un danger pour la sécurité. En fait, il a estimé que le logiciel réduit la probabilité d'un accident de 40 %, ce qui est une statistique convaincante en faveur de Tesla. Mais il s'agissait plus d'une enquête plus large sur la sécurité globale du système que d'une évaluation des spécificités de l'accident mortel de Floride. (J'ai rapporté en août dernier un cas particulièrement dramatique dans lequel le système a peut-être sauvé un conducteur qui a subi une embolie pulmonaire au volant.)
Alors que pouvons-nous retenir de l'accident mortel maintenant qu'un an s'est écoulé et que les faits essentiels ont été établis ?
Tout d'abord, c'était un rappel qui donne à réfléchir que le logiciel de conduite autonome, malgré toutes ses réalisations impressionnantes, reste loin d'être parfait. Le pilote automatique de Tesla a peut-être sauvé plus de vies qu'il n'en a coûté, mais il existe encore des circonstances dans lesquelles il est sujet à des erreurs d'une manière qu'un conducteur humain attentif ne le serait jamais.
Deuxièmement, Tesla