Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1209

Incidents associés

Incident 6723 Rapports
Sleeping Driver on Tesla AutoPilot

Loading...
Un conducteur de Tesla ivre dit aux flics que le pilote automatique était en charge
fortune.com · 2018

La California Highway Patrol (CHP) a déclaré qu'un conducteur avait été retrouvé évanoui dans sa Tesla avec un taux d'alcoolémie très élevé sur le Bay Bridge de San Francisco vendredi. Le conducteur, selon CHP, a affirmé que la voiture avait été "mise en pilote automatique" dans une tentative apparente de se défendre.

La patrouille routière, apparemment peu impressionnée, a arrêté le conducteur anonyme, l'a accusé de suspicion de conduite sous l'influence et a remorqué sa voiture, notant sur Twitter que "non, elle ne s'est pas rendue à la cour de remorquage".

Lorsque vous vous évanouissez au volant sur le Bay Bridge avec plus de 2 fois la limite légale d'alcoolémie et que vous êtes retrouvé par un moteur CHP. Le conducteur a expliqué que Tesla avait été mis en pilote automatique. Il a été arrêté et accusé de suspicion de conduite avec facultés affaiblies. Voiture remorquée (non, elle ne s'est pas rendue à la cour de remorquage). pic.twitter.com/4NSRlOBRBL – CHP San Francisco (@CHPSanFrancisco) 19 janvier 2018

Tesla n'a pas confirmé que le conducteur avait effectivement engagé le système de pilote automatique, bien qu'il ait utilisé par le passé les données du conducteur dans des enquêtes sur des accidents. Le système de pilote automatique est conçu pour attirer l'attention du conducteur s'il détecte une situation difficile et arrête la voiture si le conducteur ne réagit pas.

Obtenez la fiche technique, le bulletin technologique de Fortune.

Au niveau le plus abstrait, l'incident nous invite à nous interroger sur la responsabilité du conducteur à l'ère des véhicules autonomes. À l'avenir, sera-t-il acceptable pour nous de monter dans nos voitures en état d'ébriété et de les laisser nous ramener à la maison ?

Peut-être, mais pour l'instant, cela n'a guère d'importance. Le "pilote automatique" de Tesla n'est pas une conduite entièrement autonome, bien qu'il puisse y ressembler sur de courtes périodes et dans des conditions spécifiques. Tesla est clair sur le fait que les conducteurs utilisant le pilote automatique doivent rester vigilants et conserver la responsabilité de leur véhicule.

Mais les conducteurs de Tesla ne semblent pas toujours comprendre ce message. Une dépendance excessive au pilote automatique pourrait avoir contribué à un décès en 2016 impliquant un conducteur distrait. L'enquête qui a suivi l'accident a conclu, en partie, que Tesla ne disposait pas de garanties suffisantes pour assurer l'attention du conducteur lors de l'utilisation du pilote automatique.

Il n'y a toujours aucune confirmation que le pilote automatique était en fait impliqué dans l'incident de vendredi, et en l'absence d'accident ou de blessures apparents, il est peu probable que cela conduise à d'autres enquêtes officielles sur la responsabilité du conducteur. Cependant, cela devrait être préoccupant à la lumière du déploiement en cours du modèle 3 de Tesla, qui propose des fonctionnalités de pilote automatique en option. Il semble que Tesla ait encore du travail à faire pour éduquer ses clients sur les limites du pilote automatique ou pour mettre en place des contrôles supplémentaires pour empêcher les conducteurs de l'utiliser à mauvais escient.

Cet article a été mis à jour pour refléter la communication avec Tesla.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd