Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 211

Incidents associés

Incident 2022 Rapports
A Collection of Tesla Autopilot-Involved Crashes

Loading...
Après plusieurs décès, Tesla envoie toujours des messages mitigés sur le pilote automatique
digg.com · 2018

Après avoir fait des déclarations répétées sur une enquête gouvernementale en cours sur un accident mortel impliquant un pilote automatique, Tesla a été expulsé de l'enquête menée par le National Transportation Safety Board pour violation de son accord légal avec le NTSB. Ajoutant au drame est le fait que Tesla a peut-être menti avant que le NTSB n'annonce publiquement la décision, disant qu'il a volontairement quitté l'enquête parce qu'il ne permettrait pas à Tesla de « divulguer des informations sur le pilote automatique au public ». Jeudi après-midi, Tesla a publié une autre déclaration réfutant la version des événements du NTSB et affirmant à nouveau qu'ils avaient quitté l'enquête de leur propre chef).

Les déclarations de Tesla présentent astucieusement la sortie de l'entreprise de l'enquête comme une question de liberté d'information. Mais les déclarations de la société sur les incidents de pilote automatique, y compris dans ses enquêtes les plus récentes, ont toujours blâmé les conducteurs plutôt que d'enquêter sur sa propre technologie.

Le mois dernier, une Tesla Model X s'est écrasée sur une médiane en béton près de Mountain View, en Californie, tuant le conducteur Walter Huang, déclenchant l'enquête du NTSB. Dans une déclaration une semaine après l'accident, Tesla a reconnu que Huang utilisait le pilote automatique pendant l'accident, mais l'a carrément blâmé pour sa propre mort, en disant :

Le conducteur avait reçu plusieurs avertissements visuels et un avertissement sonore plus tôt dans la conduite et les mains du conducteur n'avaient pas été détectées sur le volant pendant six secondes avant la collision. Le conducteur avait environ cinq secondes et 150 mètres de vue dégagée sur la cloison en béton avec l'atténuateur de collision écrasé, mais les registres du véhicule montrent qu'aucune mesure n'a été prise.

Nulle part dans le message, Tesla n'a reconnu pourquoi sa fonction de pilote automatique avait ordonné à la voiture de s'écraser contre une barrière en béton, sauf que "la distance de suivi du régulateur de vitesse adaptatif" était "réglée au minimum".

Dans un autre accident mortel en mai 2016, un semi-remorque a traversé devant une Tesla en utilisant le pilote automatique. La Tesla ne s'est pas cassée et la Tesla a percuté la semi-remorque, décollant efficacement le toit de la voiture et tuant le conducteur. Tesla a reconnu le rôle du pilote automatique dans l'accident, affirmant que "ni le pilote automatique ni le conducteur n'ont remarqué le côté blanc de la semi-remorque contre un ciel très éclairé, le frein n'a donc pas été appliqué". Malgré cela, Tesla a finalement blâmé le conducteur :

Lorsque les conducteurs activent le pilote automatique, la boîte de confirmation explique, entre autres, que le pilote automatique "est une fonction d'assistance qui vous oblige à garder les mains sur le volant à tout moment" et que "vous devez garder le contrôle et la responsabilité de votre véhicule". ' lors de son utilisation.

Lors d'un autre crash du pilote automatique en janvier, une Tesla a percuté un camion de pompiers stationné. La réponse de Tesla a été que le pilote automatique est "destiné à être utilisé uniquement avec un conducteur pleinement attentif".

Les deux décès et l'accident s'inscrivent dans une série d'accidents et de vidéos virales qui montrent les imperfections de la technologie de pilotage automatique de Tesla.

L'examen public des accidents a été relativement réservé à la réaction suscitée par le seul décès causé par la voiture autonome d'Uber, et les réactions de Tesla ont été beaucoup plus défensives.

Un aspect clé des réponses de Tesla aux plantages de son pilote automatique est le fait qu'il correspond à la facture d'un système d'automatisation de niveau 2 dans le cadre d'automatisation à 6 niveaux de la Society of Automotive Engineers. Un système de niveau 2 gère la vitesse et la direction dans certaines conditions, mais nécessite que les conducteurs fassent attention et soient prêts à prendre le relais - Tesla tente de faire respecter cela en alertant le conducteur chaque fois que ses mains ne sont pas sur le volant, et éventuellement en désactivant le pilote automatique si un les mains des conducteurs ne sont pas sur le volant assez longtemps (bien que les conducteurs aient trouvé des moyens de pirater cela). Une voiture de niveau 3 n'alertera le conducteur que lorsqu'elle détectera une situation qu'elle ne peut pas gérer.

Tesla a commodément utilisé ce fait dans ses réponses à des accidents très médiatisés, mais a également annoncé à plusieurs reprises que les capacités de conduite autonome de ses voitures étaient supérieures au niveau 2, envoyant des signaux mitigés aux conducteurs et au public.

Sur son site Web Autopilot, Tesla vante les mérites du "matériel entièrement autonome sur toutes les voitures", malgré son insistance sur le fait que le logiciel n'est destiné qu'à l'assistance.

Sur la même page, une vidéo montre une Tesla opérée sans les mains, détectant son environnement. Une légende indique "La personne assise au volant n'est là que pour des raisons légales. Il ne fait rien. La voiture se conduit toute seule."

Ce n'est qu'en bas de la page que Tesla précise que "Full Self-Driving Capability" est un logiciel complémentaire qui n'a pas encore été publié et ne s'applique pas au "Enhanced Autopilot" existant de Tesla.

Ajoutant à la confusion, le fait que le PDG de Tesla, Elon Musk, a déclaré à plusieurs reprises que les voitures de Tesla sur le marché qui sont équipées pour le pilote automatique pourront éventuellement atteindre "une autonomie à peu près humaine" et pourraient éventuellement faciliter "l'automatisation complète". En 2016, il c

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd