Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2116

Incidents associés

Incident 3379 Rapports
Tesla Model S on ACC Crashed into Tree in Texas, Killing Two People

Loading...
Accident mortel de Tesla au Texas : ce que nous savons et ce que nous ne savons pas
forbes.com · 2021

Il y a eu beaucoup d'attention sur un [crash fatal dans une Tesla Model S](https://www.houstonchronicle.com/news/houston-texas/transportation/article/Two-federal-agencies-join-probe -of-fiery-fatal-16113076.php) dans la banlieue de Houston. En effet, la police a signalé que personne ne se trouvait sur le siège conducteur du véhicule, mais les restes de deux hommes ont été retrouvés sur le siège passager et sur le siège arrière. La police a déclaré qu'elle était certaine que personne n'était dans le siège du conducteur au moment de l'accident, ce qui a conduit à des spéculations immédiates sur le rôle du pilote automatique de Tesla TSLA ou de leur pilote habituel. Projet de test d'auto-conduite "Full" street beta.

Elon Musk de Tesla a déclaré qu'Autopilot n'était pas impliqué dans cet accident, ce qui devrait être la fin de l'histoire, puisqu'il n'a pas accès aux opinions, mais aux journaux que la voiture télécharge immédiatement après un accident. Malgré cela, il y a un intérêt intense, y compris l'arrivée d'enquêteurs du National Transportation Safety Board qui a enquêté sur de nombreux accidents de Tesla.

Voici quelques-unes des choses connues ou crues à propos de cet accident :

  1. Il a eu lieu sur un petit cul-de-sac nommé "[Hammock Dunes Place](https://www.google.com/maps/place/Hammock+Dunes+Pl,+The+Woodlands+Carlton+Woods+ Creekside,+TX+77389/@30.1553482,-95.5303014,19.5z/data=!4m5!3m4!1s0x8647319773680769:0x5795d75d45dcc469!8m2!3d30.1548352!4d-95.5313222) » dans la banlieue riche de Harris County, Texas. Cette rue est courte. Le couple aurait quitté la maison au bout de la rue et s'est écrasé dans des arbres à seulement 600 pieds dans la voie de leur allée.
  2. Comme indiqué, Elon Musk a déclaré: "Les journaux de données récupérés jusqu'à présent montrent que le pilote automatique n'était pas activé et que cette voiture n'a pas acheté FSD. De plus, le pilote automatique standard nécessiterait l'activation des lignes de voie, ce que cette rue n'avait pas.
  3. La voiture a pris feu. Les pompiers ont pu éteindre le feu rapidement, mais comme les incendies de batteries au lithium peuvent se rallumer, ils ont continué à verser de l'eau sur la batterie pour la refroidir pendant 4 heures, en utilisant 23 000 gallons. Les rapports selon lesquels il a fallu toute cette eau pour éteindre le feu étaient incorrects. Les dégâts causés par le feu ont été importants.
  4. Les rapports suggèrent que le voyage consistait à montrer le pilote automatique. Le propriétaire a reculé la voiture hors de l'allée, puis s'est écrasé sur une courte distance sur la route. Le propriétaire a été retrouvé sur le siège arrière selon les rapports.
  5. La police dit qu'elle est certaine que personne n'était dans le siège du conducteur. Ils fondent cela sur l'opinion des professionnels de la reconstitution des accidents.
  6. Il est possible de libérer le siège du conducteur après avoir activé le pilote automatique. Il faut laisser la ceinture de sécurité bouclée, donc généralement cela devrait être fait avant de s'asseoir sur le siège. Bien qu'une Tesla dispose de capteurs de poids de siège et d'une caméra qui pourraient détecter un siège vacant, à l'heure actuelle, ceux-ci n'affectent pas le pilote automatique.
  7. Le pilote automatique a besoin de voir les lignes de voie pour s'activer, qui ne sont pas présentes dans cette rue. Cependant, il n'est pas rare qu'il pense à tort qu'il voit de telles lignes, et il restera ensuite en pilote automatique pendant un certain temps. (Les journaux de Tesla indiquent cependant qu'il n'était pas en pilote automatique.)

MISE À JOUR : L'appel Tesla Earnings a ajouté quelques mises à jour : ([Voir tous les détails ici](https://www.forbes.com/sites/bradtempleton/2021/04/28/fatal-texas-tesla-crash- devient-une-pièce-verrouillée-meurtre-mystère-avec-de-nouvelles-instructions-tesla/).)

  1. Le pilote automatique (Autosteer) n'était pas engagé et ne sera pas sur cette route
  2. Le régulateur de vitesse adaptatif a été activé. Il faut que la ceinture de sécurité soit bouclée et que la voiture roule à plus de 5 mph. Au loin de l'accident, il a accéléré à 30 mph
  3. Dans une déclaration dont la signification n'est pas claire, il a été déclaré que l'ACC "[a désengagé la voiture lentement pour s'arrêter] (https://youtu.be/cZhi9h-QZXE?t=1588)" lorsque la ceinture de sécurité a été débouclée .”
  4. Toutes les ceintures de sécurité étaient débouclées dans le véhicule accidenté.
  5. Le volant a été déformé d'une manière compatible avec un conducteur qui l'a heurté.

Lorsqu'une Tesla tombe en panne, elle télécharge immédiatement autant de données qu'elle le peut. Nous ne savons pas à quelle vitesse le feu a interféré avec le téléchargement. La déclaration de Musk sur les "journaux récupérés jusqu'à présent" est plus équivoque qu'elle ne devrait l'être normalement. Cela peut faire référence aux journaux de bord plus complets trouvés dans la boîte noire de la voiture qui aurait dû survivre à l'incendie et serait entre les mains de la police. Néanmoins, les journaux de Tesla révèlent non seulement si le pilote automatique était activé au moment de l'accident, mais également s'il était activé avant, ainsi que les actions du conducteur.

Lorsque le NTSB est impliqué, la plupart du temps, les personnes impliquées travaillent avec le NTSB. Cependant, le NTSB demande aux parties de garder le silence jusqu'à ce que leur enquête soit publiée, ce qui peut durer jusqu'à 2 ans. Tesla s'est rebellé contre un tel retard. Ils ne veulent pas garder le silence et ont déjà été retirés d'une enquête pour cela. Le NTSB n'aime pas Elon Musk à ce stade. Les rapports indiquent que Tesla ne sera pas partie à cette enquête, ce qui les laisserait libres de faire des déclarations publiques au-delà de ce qui a été fait.

Les Tesla sont toutes équipées d'un "régulateur de vitesse adaptatif" qui ne dirige pas la voiture, mais la maintient en mouvement. L'ACC tente de détecter les obstacles devant la voiture mais est loin d'être parfait pour détecter les objets stationnaires, y compris les arbres. Il est possible que la voiture soit en mode ACC. Comme tout régulateur de vitesse, si vous ne dirigez pas, il peut sortir de la route dans un virage et se heurter à un arbre. L'activation du pilote automatique et de l'ACC est similaire - dans le modèle S, vous tirez deux fois sur la manette du pilote automatique pour le pilote automatique et une fois pour l'ACC à la limite de vitesse locale. Cependant, l'ACC ne s'active pas à l'arrêt sauf si une autre voiture arrêtée se trouve devant vous.

En d'autres termes, même si le propriétaire s'asseyait sur le siège arrière et activait l'ACC par erreur, cela serait assez difficile à faire. En ce qui concerne l'utilisation de l'ACC ou d'autres facteurs dans cet accident, tout ce que nous avons, ce sont des spéculations. Tesla devrait savoir si l'ACC a été activé ou tenté d'être activé, mais n'a rien divulgué à cet égard. En effet, même si les journaux d'Elon Musk sont incorrects et que la voiture est passée en mode pilote automatique dans cette petite rue, le propriétaire de la voiture en a clairement abusé de manière assez évidente. Le pilote automatique de Tesla, contrairement à leur version bêta "FSD", n'est pas destiné à fonctionner dans une rue comme celle-ci, il ne devrait donc pas y avoir de controverse sur sa fonction, uniquement sur son existence.

Une option est une démo erronée qui a mal tourné. Peut-être que le propriétaire a pensé qu'il avait activé le pilote automatique ou l'ACC, puis a tenté d'appuyer sur l'accélérateur avec une perche depuis le siège arrière. Cela semble une chose remarquablement stupide à faire, en particulier avec l'ACC. Il n'est pas impossible qu'il ait enfoncé cette pédale à fond et que la voiture ait accéléré de la manière très rapide que Tesla peut faire, dans l'arbre.

Il est possible que l'équipe de reconstruction de l'accident se soit trompée et que quelqu'un se soit assis sur le siège du conducteur et qu'après l'accident, il ait pu ramper sur le siège passager ou sur le siège arrière. Cela semble difficile, et ils tirent leur conclusion d'un examen sur le terrain et disposent de meilleures informations.

MISE À JOUR : La déclaration de Tesla indique qu'en effet l'ACC a été activé, mais la manière dont il a été activé reste confuse. La déclaration implique qu'il a été activé pendant que la voiture se déplaçait, mais désactivé lorsqu'une ceinture de sécurité a été débouclée. On ne sait pas très bien ce que cela signifie que l'ACC a arrêté la voiture car elle s'est violemment écrasée.

Pourquoi le propriétaire était-il si stupide ?

Que le propriétaire ait pu activer le pilote automatique ou l'ACC ou qu'il ait simplement fait une erreur en appuyant sur l'accélérateur, la vraie question à propos de cet accident est de savoir ce qui a poussé quelqu'un à faire quelque chose d'aussi stupide. Cela a été la question centrale autour du déploiement de ces systèmes par Tesla. Utilisés correctement, ce sont des outils utiles. Conduire avec le pilote automatique est à un niveau de sécurité similaire à la conduite sans. ([Pas beaucoup plus sûr, comme Tesla le prétend à tort](https://www.forbes.com/sites/bradtempleton/2020/10/28/new-tesla-autopilot-statistics-show-its-almost-as-safe- conduire-avec-comme-sans/). Le problème se pose parce que les gens décident, contre tous les avertissements, que c'est mieux qu'il ne l'est, et ils en abusent.

Cette affaire n'est probablement qu'un exemple très extrême de cette confiance erronée et de cette mauvaise utilisation. Nous ne saurons peut-être jamais ce qu'il y avait dans la tête du défunt.

Tesla a souvent été critiquée pour avoir laissé la décision entre les mains du conducteur. Ils pourraient détecter si quelqu'un est assis sur le siège. Ils pourraient, comme le font General Motors GM et d'autres entreprises, détecter si le conducteur garde son attention sur la route avec ses yeux. (Tesla exige plutôt que vous appliquiez régulièrement une certaine pression sur la roue pour vous assurer que vous faites attention.) Tesla pourrait interdire l'activation de leurs systèmes dans toutes les rues sauf approuvées, comme le font certains constructeurs automobiles.

C'est une question morale ouverte sur le devoir d'un constructeur automobile d'imposer un bon comportement aux conducteurs. Nous ne résoudrons peut-être jamais cela.

Des outils comme le pilote automatique sont apparus comme des évolutions du régulateur de vitesse. Il est très évident que si vous ne faites pas très attention avec le régulateur de vitesse régulier, vous vous écraserez. Avec le régulateur de vitesse adaptatif, vous pouvez vous en sortir sans regarder la voiture devant vous, mais vous devez toujours garder votre voiture dans la voie. C'est un système supérieur, mais parce qu'il inspire plus de confiance, il peut inspirer plus d'abus. Le pilote automatique est encore supérieur et inspire beaucoup plus de confiance et plus d'abus potentiels. Nous ne penserions jamais à dire aux fabricants de régulateurs de vitesse ou d'ACC qu'ils doivent appliquer les règles aux conducteurs. Ce produit n'est pas assez bon pour être trop fiable. Il est certainement ironique que plus vous fabriquez un produit, plus il est mauvais, lorsque vous examinez la question du risque de confiance excessive.

Tesla ne veut pas être une nounou pour ses clients, et ses clients ont tendance à ne pas le vouloir non plus. Mais ils obtiendraient également un meilleur dossier de sécurité s'ils faisaient l'effort d'être une nounou très permissive, ce qui permet aux clients de faire ce qu'ils souhaitent vraiment faire, mais réduit lorsqu'ils font des choses par erreur.

En ce moment pour utiliser le pilote automatique, Tesla explique ce qu'il ne peut pas faire et vous fait accepter que vous comprenez. Le problème est que le monde en est venu à apprendre à ignorer les avertissements « passe-partout » que nous voyons tout le temps. Bien qu'il soit bon d'avoir l'avertissement, les avertissements qui sont systématiquement ignorés ne sont pas très utiles. Vous voulez des avertissements qui ne surviennent que lorsqu'il y a une raison réelle, avec peu de fausses alarmes.

En tant que tel, Tesla devrait envisager d'utiliser sa caméra pour s'assurer que l'attention est portée sur la route. Cependant, il pourrait mettre en place une option qui permet aux gens de désactiver cela et de revenir à la détection de couple du volant. Ensuite, vous pourriez mettre un véritable avertissement, les faire venir chez le concessionnaire et signer un contrat prenant en charge les conséquences. Peu le feraient, et ils pourraient plaire aux deux maîtres - ceux qui veulent que la technologie qu'ils achètent n'obéissent qu'à eux, et ceux qui veulent être empêchés de leurs propres erreurs.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd