Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3165

Incidents associés

Incident 5502 Rapports
Tesla Allegedly on Autopilot Struck High School Student Exiting School Bus

Loading...
17 morts, 736 accidents : le bilan choquant du pilote automatique de Tesla
washingtonpost.com · 2023

SAN FRANCISCO – Le bus scolaire affichait son panneau d'arrêt et ses feux rouges clignotants, selon un rapport de police, lorsque Tillman Mitchell, 17 ans, est descendu un après-midi de mars. Puis une Tesla Model Y s'est approchée sur la North Carolina Highway 561.

La voiture - prétendument en mode pilote automatique - n'a jamais ralenti.

Il a frappé Mitchell à 45 mph. L'adolescent a été projeté contre le pare-brise, s'est envolé dans les airs et a atterri face contre terre sur la route, selon sa grand-tante, Dorothy Lynch. Le père de Mitchell a entendu l'accident et s'est précipité de son porche pour trouver son fils allongé au milieu de la route.

"Si cela avait été un enfant plus petit", a déclaré Lynch, "l'enfant serait mort."

L'accident survenu dans le comté d'Halifax en Caroline du Nord, où une technologie futuriste s'est abattue sur une autoroute rurale avec des conséquences dévastatrices, était l'un des 736 accidents aux États-Unis depuis 2019 impliquant Teslas en mode pilote automatique - [en savoir plus](https://www.washingtonpost.com /technology/2022/06/15/tesla-autopilot-crashs/) que précédemment rapporté, selon une analyse du Washington Post des données de la National Highway Traffic Safety Administration. Le nombre de ces accidents a augmenté au cours des quatre dernières années, selon les données, reflétant les dangers associés à l'utilisation croissante de la technologie d'assistance à la conduite de Tesla ainsi que la présence croissante des voitures sur les routes du pays.

Le nombre de décès et de blessures graves associés au pilote automatique a également augmenté de manière significative, selon les données. Lorsque les autorités ont publié pour la première fois un décompte partiel des accidents impliquant le pilote automatique en juin 2022, elles ne comptaient que trois décès définitivement liés à la technologie. Les données les plus récentes incluent au moins 17 incidents mortels, dont 11 depuis mai 2022, et cinq blessés graves.

Mitchell a survécu à l'accident de mars mais a subi une fracture du cou et une jambe cassée et a dû être placé sous ventilateur. Il éprouve toujours des problèmes de mémoire et a du mal à marcher. Sa grand-tante a déclaré que l'incident devrait servir d'avertissement sur les dangers de la technologie.

"Je prie pour que ce soit un processus d'apprentissage", a déclaré Lynch. "Les gens font trop confiance quand il s'agit d'une machine."

Le directeur général de Tesla, Elon Musk, a déclaré que les voitures fonctionnant en mode de pilotage automatique de Tesla sont plus sûres que celles pilotées uniquement par des conducteurs humains, citant les taux d'accidents lorsque les modes de conduite sont comparés. Il a poussé le constructeur automobile à développer et à déployer des fonctionnalités programmées pour manœuvrer les routes – navigation dans les autobus scolaires arrêtés, les camions de pompiers, les panneaux d'arrêt et les piétons – arguant que la technologie inaugurera un avenir plus sûr et pratiquement sans accident. Bien qu'il soit impossible de dire combien d'accidents ont pu être évités, les données montrent des failles évidentes dans la technologie testée en temps réel sur les autoroutes américaines.

Les 17 accidents mortels de Tesla révèlent des schémas distincts, selon The Post : Quatre impliquaient une moto. Un autre impliquait un véhicule d'urgence. Pendant ce temps, certaines des décisions de Musk, telles que l'élargissement de la disponibilité des fonctionnalités et la suppression des véhicules des capteurs radar – semblent avoir contribué à la hausse signalée des incidents, selon des experts qui se sont entretenus avec The Post.

Tesla et Elon Musk n'ont pas répondu à une demande de commentaire.

La NHTSA a déclaré qu'un rapport d'accident impliquant une assistance à la conduite n'impliquait pas en soi que la technologie en était la cause. "La NHTSA a une [enquête] active (https://urldefense.com/v3/https:/www.nhtsa.gov/recalls?nhtsaId=EA22002;!!M9LbjjnYNg9jBDflsQ!HZ7rxMHTdiy-B92WBmEZSdKI_-9qEXruL2BBxwuhhUbUBhc8-94Ep63 iNotTnau5suvx693_0jrzBRKHMEBFEuS0_szQBnLmwYQ$) dans le pilote automatique Tesla , y compris la conduite autonome", a déclaré la porte-parole Veronica Morales, notant que l'agence ne commente pas les enquêtes ouvertes. "La NHTSA rappelle au public que tous les systèmes avancés d'aide à la conduite exigent que le conducteur humain ait le contrôle et soit pleinement engagé dans la tâche de conduite à tout moment. En conséquence, toutes les lois des États tiennent le conducteur humain responsable du fonctionnement de ses véhicules."

Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

"Au point où vous pensez que l'ajout d'autonomie réduit les blessures et les décès, je pense que vous avez l'obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens", a déclaré Musk l'année dernière. "Parce que les personnes dont vous avez sauvé la vie ne savent pas que leur vie a été sauvée. Et les personnes qui meurent ou se blessent occasionnellement, elles le savent certainement – ou leur état le sait."

L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, professeure au Collège d'ingénierie et d'informatique de l'Université George Mason, a déclaré que l'augmentation des accidents de Tesla était troublante.

"Tesla connaît des accidents plus graves - et mortels - que les personnes dans un ensemble de données normal", a-t-elle déclaré en réponse aux chiffres analysés par The Post. L'une des causes probables, a-t-elle déclaré, est le déploiement élargi au cours de la dernière année et demie de la conduite autonome complète, qui apporte l'assistance au conducteur dans les rues urbaines et résidentielles. "Le fait que … n'importe qui et tout le monde puisse l'avoir. … Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents? Bien sûr, absolument."

Cummings a déclaré que le nombre de décès par rapport au nombre total d'accidents était également une préoccupation.

Il n'est pas clair si les données capturent chaque accident impliquant les systèmes d'assistance à la conduite de Tesla. Les données de la NHTSA incluent certains incidents dans lesquels il est "inconnu" si le pilote automatique ou la conduite autonome complète étaient utilisés. Ceux-ci incluent trois décès, dont un l'année dernière.

La NHTSA, le principal organisme de réglementation de la sécurité automobile du pays, a commencé à collecter les données après qu'une ordonnance fédérale en 2021 a obligé les constructeurs automobiles à divulguer les accidents impliquant la technologie d'assistance à la conduite. Le nombre total d'accidents impliquant la technologie est infime par rapport à tous les accidents de la route ; La NHTSA estime que plus de 40 000 personnes sont mortes dans des épaves de toutes sortes l'année dernière.

Depuis l'introduction des exigences de déclaration, la grande majorité des 807 accidents liés à l'automatisation ont impliqué Teslas, selon les données. Tesla – qui a expérimenté l'automatisation de manière plus agressive que les autres constructeurs automobiles – est également liée à presque tous les décès.

Subaru se classe deuxième avec 23 accidents signalés depuis 2019. L'énorme gouffre reflète probablement un déploiement et une utilisation plus larges de l'automatisation dans la flotte de véhicules de Tesla, ainsi qu'un éventail plus large de circonstances dans lesquelles les conducteurs de Tesla sont encouragés à utiliser le pilote automatique.

Autopilot, que Tesla a introduit [en 2014](https://www.washingtonpost.com/technology/2023/03/19/elon-musk-tesla -driving/), est une suite de fonctionnalités permettant à la voiture de se manœuvrer de la bretelle d'accès à la bretelle de sortie de l'autoroute, en maintenant la vitesse et la distance derrière les autres véhicules et en suivant les lignes de voie. Tesla l'offre en standard sur ses véhicules, dont plus de 800 000 sont équipés d'un pilote automatique sur les routes américaines , même si les itérations avancées ont un coût.

La conduite autonome complète, une fonctionnalité expérimentale que les clients doivent acheter, permet à Teslas de manœuvrer du point A au point B en suivant les instructions détaillées le long d'un itinéraire, en s'arrêtant aux panneaux d'arrêt et aux feux de circulation, en effectuant des virages et des changements de voie, et répondre aux dangers en cours de route. Avec l'un ou l'autre système, Tesla dit que les conducteurs doivent surveiller la route et intervenir si nécessaire.

La hausse du nombre d'accidents coïncide avec le déploiement agressif par Tesla de la conduite entièrement autonome, qui a étendu de about 12 000 utilisateurs à près de 400 000 en un peu plus d'un an. Près des deux tiers de tous les accidents d'assistance à la conduite signalés par Tesla à la NHTSA se sont produits au cours de l'année écoulée.

Philip Koopman, professeur à l'Université Carnegie Mellon qui a mené des recherches sur la sécurité des véhicules autonomes pendant 25 ans, a déclaré que la prévalence de Teslas dans les données soulève des questions cruciales.

"Un nombre significativement plus élevé est certainement une source de préoccupation", a-t-il déclaré. "Nous devons comprendre si cela est dû à des accidents réellement plus graves ou s'il existe un autre facteur, tel qu'un nombre de kilomètres considérablement plus important parcouru avec le pilote automatique activé."

En février, Tesla a émis un rappel de plus de 360 000 véhicules équipés de la conduite autonome complète, craignant que le logiciel n'incite ses véhicules à désobéir aux feux de circulation, aux panneaux d'arrêt et aux limites de vitesse.

Le non-respect du code de la route, selon des documents publiés par l'agence de sécurité, "pourrait augmenter le risque de collision si le conducteur n'intervient pas". Tesla a déclaré avoir résolu les problèmes avec une mise à jour logicielle en direct, traitant à distance le risque.

Alors que Tesla a constamment peaufiné son logiciel d'assistance à la conduite, il a également pris la mesure sans précédent de l'élimination des capteurs radar des nouvelles voitures et en les désactivant des véhicules déjà sur la route - les privant d'un capteur critique alors que Musk a poussé un matériel plus simple au milieu de la pénurie mondiale de puces informatiques. Musk a déclaré l'année dernière, "Seul un radar à très haute résolution est pertinent."

La société a récemment pris des mesures pour réintroduire les capteurs radar, selon les premiers documents déposés par le gouvernement [rapporté ](https://electrek.co/2022/12/06/tesla-radar-car-next-month-self-driving-suite- préoccupations/)par Electrek.

Dans une présentation en mars, Tesla a affirmé que la conduite entièrement autonome s'écrase à un taux au moins un cinquième de celui des véhicules en conduite normale, en comparaison de miles parcourus par collision. Cette affirmation, et la caractérisation par Musk du pilote automatique comme "sans équivoque plus sûr", sont impossibles à tester sans accès aux données détaillées que Tesla possède.

Le pilote automatique, en grande partie un système routier, fonctionne dans un environnement moins complexe que la gamme de situations vécues par un usager de la route typique.

On ne sait pas lequel des systèmes était utilisé dans les accidents mortels : Tesla a demandé à la NHTSA de ne pas divulguer ces informations. Dans la section des données de la NHTSA spécifiant la version du logiciel, les incidents de Tesla se lisaient - en toutes lettres majuscules - "expurgés, peuvent contenir des informations commerciales confidentielles".

Le pilote automatique et la conduite autonome complète ont fait l'objet d'un examen minutieux ces dernières années. Le secrétaire aux Transports Pete Buttigieg [a déclaré] (https://apnews.com/article/tesla-autopilot-buttigieg-investigation-crash-musk-1455d194b18fe17609554dd68864654c) à l'Associated Press le mois dernier qu'Autopilot n'est pas un nom approprié "lorsque les petits caractères disent vous devez avoir les mains sur le volant et les yeux sur la route à tout moment."

La NHTSA a ouvert plusieurs sondes sur les accidents de Tesla et d'autres problèmes avec son logiciel d'assistance à la conduite. L'un s'est concentré sur le "freinage fantôme", un phénomène dans lequel les véhicules ralentissent brusquement pour des dangers imaginaires.

Dans un cas l'année dernière, détaillé par l'Intercept, une Tesla Model S aurait utilisé l'assistance au conducteur soudainement freinée dans la circulation sur le pont de la baie de San Francisco, entraînant un carambolage de huit véhicules qui a fait neuf blessés, dont un enfant de 2 ans.

Dans d'autres plaintes déposées auprès de la NHTSA, les propriétaires affirment que les voitures ont freiné brutalement lorsqu'elles ont rencontré des semi-remorques dans les voies venant en sens inverse.

De nombreux accidents ont impliqué des paramètres et des conditions similaires. La NHTSA a reçu plus d'une douzaine de rapports faisant état de Teslas percutant des véhicules d'urgence garés alors qu'ils étaient en pilote automatique, par exemple. L'année dernière, la NHTSA a transformé son enquête sur ces incidents en une "analyse technique".

L'année dernière également, la NHTSA a ouvert deux enquêtes spéciales consécutives sur des accidents mortels impliquant des véhicules Tesla et des motocyclistes. L'un s'est produit dans l'Utah, lorsqu'un motocycliste sur une Harley-Davidson roulait dans une voie à forte occupation sur l'Interstate 15 à l'extérieur de Salt Lake City peu après 1 h du matin, selon les autorités. Une Tesla en pilote automatique a percuté le vélo par derrière.

"Le conducteur de la Tesla n'a pas vu le motocycliste et est entré en collision avec l'arrière de la moto, ce qui a projeté le pilote du vélo", a déclaré le ministère de la Sécurité publique de l'Utah (https://dpsnews.utah.gov/fatal -accident-i-15-direction-sud-15000-sud/). Le motocycliste est décédé sur les lieux, ont annoncé les autorités de l'Utah.

"Il est très dangereux pour les motos d'être autour de Teslas", a déclaré Cummings.

Sur des centaines d'accidents d'assistance au conducteur Tesla, la NHTSA s'est concentrée sur environ 40 incidents pour une analyse plus approfondie, dans l'espoir de mieux comprendre le fonctionnement de la technologie. Parmi eux se trouvait l'accident de Caroline du Nord impliquant Mitchell, l'élève débarquant du bus scolaire.

Par la suite, Mitchell s'est réveillé à l'hôpital sans aucun souvenir de ce qui s'était passé. Il n'en saisit toujours pas la gravité, a déclaré sa tante. Ses problèmes de mémoire le gênent alors qu'il essaie de rattraper son retard à l'école. Point de vente local WRAL [rapporté](https://www.wral.com/story/awake-and-in-good-spirits-teen-hit-by-tesla-while-getting-off-bus-making-progress-in -recovery/20767761/) que l'impact de l'accident a brisé le pare-brise de la Tesla.

Le conducteur de Tesla, Howard G. Yee, a été accusé de plusieurs infractions dans l'accident, notamment de conduite imprudente, de dépassement d'un autobus scolaire arrêté et de frappe d'une personne, un crime de classe I, selon le sergent de la North Carolina State Highway Patrol. Marcus Béthéa.

Les autorités ont déclaré que Yee avait fixé des poids sur le volant pour inciter le pilote automatique à enregistrer la présence des mains du conducteur : le pilote automatique désactive les fonctions si la pression de direction n'est pas appliquée après un certain temps. Yee a dirigé un journaliste vers son avocat, qui n'a pas répondu à la demande de commentaire du Post.

La NHTSA enquête toujours sur l'accident et une porte-parole de l'agence a refusé de donner plus de détails, citant l'enquête en cours. Tesla a demandé à l'agence d'exclure du public le résumé de l'incident de la société, affirmant qu'il "pourrait contenir des informations commerciales confidentielles".

Lynch a déclaré que sa famille avait gardé Yee dans ses pensées et considérait ses actions comme une erreur provoquée par une confiance excessive dans la technologie, ce que les experts appellent "la complaisance en matière d'automatisation".

"Nous ne voulons pas que sa vie soit gâchée par cet accident stupide", a-t-elle déclaré.

Mais interrogé sur Musk, Lynch a eu des mots plus tranchants.

"Je pense qu'ils doivent interdire la conduite automatisée", a-t-elle déclaré. "Je pense que ça devrait être interdit."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd