Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 191

Incidents associés

Incident 2022 Rapports
A Collection of Tesla Autopilot-Involved Crashes

Loading...
Tesla Model X en pilote automatique a tué un conducteur. Les responsables ne sont pas satisfaits de la façon dont Tesla l'a géré.
futurism.com · 2018

Tesla prend les relations publiques très au sérieux après qu'un de ses véhicules en mode autonome ait récemment tué un passager.

L'accident s'est produit à 9h27 sur l'autoroute 101 près de Mountain View, en Californie. Walter Huang était dans le siège du conducteur du modèle X, qui était en mode autonome. La voiture a heurté de plein fouet une séparation d'autoroute en béton, marquée de chevrons noirs et jaunes. Huang n'a rien fait. Le SUV s'est froissé comme une boîte de conserve et Huang n'a pas survécu.

L'enquête sur l'accident mortel de #Tesla s'est poursuivie aujourd'hui avec le #CHP et le #NTSB creusant dans le véhicule électrique brûlé ? https://t.co/rfdgY88bn7 pic.twitter.com/vd2YzFmAZ0 — Dean C. Smith (@DeanCSmith) 29 mars 2018

D'autres informations ont été difficiles à obtenir, en raison de la gravité des dégâts. Jusqu'à présent, nous ne savons pas si sa mort est le résultat d'une négligence, d'une sieste fatale ou simplement d'être distrait par les feux d'artifice des voyants d'avertissement et des sons. Mais une chose est claire : le crash prouve que les repères audio et visuels sur le tableau de bord pourraient après tout être insuffisants pour éviter un crash.

Huang n'a pas été le premier à mourir dans une Tesla avec le pilote automatique activé. En 2016, Joshua Brown a écrasé sa Model S dans un camion, marquant la première collision mortelle alors que le pilote automatique était engagé.

Le moment de cet accident particulier n'est pas exactement idéal (du point de vue de Tesla). Uber contrôle déjà les dégâts après que sa voiture autonome a tué un piéton en Arizona le 19 mars, quatre jours avant la collision mortelle de Huang.

Fait intéressant, les responsables ne sont pas trop satisfaits de l'offensive de relations publiques de Tesla. Dimanche, un porte-parole du National Transportation Safety Board (NTSB) des États-Unis a déclaré au Washington Post :

À l'heure actuelle, le NTSB a besoin de l'aide de Tesla pour décoder les données enregistrées par le véhicule. Dans chacune de nos enquêtes impliquant un véhicule Tesla, Tesla a été extrêmement coopératif pour aider avec les données du véhicule. Cependant, le NTSB est mécontent de la publication d'informations d'enquête par Tesla.

Vraisemblablement, les enquêteurs ne sont pas contents parce qu'ils aimeraient obtenir autant d'informations que possible, puis publier un rapport.

Mais Tesla aurait peut-être sauté le pas. Le non-respect des processus d'enquête et des délais du NTSB pourrait entraîner l'arrêt brutal de leurs avancées technologiques (et des améliorations de la sécurité).

Après l'accident de la voiture Uber, la société s'est vu interdire de poursuivre les tests en Arizona (bien que d'autres sociétés aient été autorisées à continuer). Beaucoup de gens craignaient que l'accident n'entame la confiance du public dans les véhicules autonomes, et cela ne s'est en grande partie pas produit, du moins pas encore.

Mais si les crashs continuent, cela pourrait changer. Le marché des voitures autonomes pourrait se tarir avant que la technologie ne devienne suffisamment fiable pour les généraliser.

Le pilote automatique de Tesla est une autonomie de niveau 2, tandis que la voiture autonome d'Uber est de niveau 4. La technologie n'est donc même pas vraiment la même. Pourtant, un retournement de la marée de l'opinion publique pourrait entraîner les deux avec lui.

Les véhicules autonomes ne sont pas les meilleurs pour partager la route imprévisible avec des humains imprécis. Oui, une fois que les véhicules entièrement autonomes seront déployés dans tout le pays et représenteront 100 % des véhicules sur la route, les routes américaines deviendront inévitablement plus sûres.

Mais nous n'en sommes pas encore là. Si des accidents comme ceux-ci continuent de se produire et que le public perd confiance, nous ne le serons peut-être jamais.

Mise à jour : le PDG de Tesla, Elon Musk, s'est rendu sur Twitter pour répondre aux commentaires du NTSB et réitérer les priorités de Tesla :

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd