Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2681

Incidents associés

Incident 47813 Rapports
Tesla FSD Reportedly Increased Crash Risk, Prompting Recall

Loading...
Le rappel complet de l'auto-conduite de Tesla cible un défaut "fondamental"
wired.com · 2023

Après des années à vendre sa mise à niveau logicielle controversée Full-Self Driving pour des milliers de dollars, Tesla a émis aujourd'hui un rappel pour chacun des quelque 363 000 véhicules utilisant cette fonctionnalité. Cette décision a été motivée par une agence gouvernementale américaine affirmant que le logiciel avait, dans de "rares circonstances", mis les conducteurs en danger et pouvait augmenter le risque d'accident dans des situations quotidiennes.

Les rappels sont courants dans l'industrie automobile et ciblent principalement des pièces particulières ou des situations routières. Le dernier rappel de Tesla est radical, la National Highway Traffic Safety Administration affirmant que le logiciel Full Self-Driving peut enfreindre le code de la route local et agir en une façon à laquelle le conducteur ne s'attend pas dans un sac de situations routières.

Selon le [dossier] de l'agence (https://static.nhtsa.gov/odi/rcl/2023/RCLRPT-23V085-3451.PDF), il s'agit notamment de traverser un feu jaune sur le point de devenir rouge ; ne pas s'arrêter correctement à un panneau d'arrêt ; excès de vitesse, en raison de la non-détection d'un panneau de signalisation ou parce que le conducteur a réglé sa voiture par défaut sur une vitesse plus rapide ; et effectuer des changements de voie inattendus pour sortir des voies de virage uniquement lorsque vous traversez une intersection. Les conducteurs pourront continuer à utiliser la fonctionnalité pendant que Tesla crée un correctif logiciel pour les défauts.

Les situations mises en évidence par le rappel semblent être unies par un défaut de conception qui, selon certains experts en sécurité, est depuis longtemps au cœur de la technologie d'assistance à la conduite de Tesla : la notion selon laquelle les conducteurs peuvent laisser le logiciel gérer la conduite, mais sont également censés intervenir à un instant lorsque le logiciel a besoin d'aide.

Les humains ne fonctionnent pas de cette façon, explique Philip Koopman, qui étudie la sécurité des voitures autonomes en tant que professeur agrégé à l'Université Carnegie Mellon. "C'est un problème fondamental avec cette technologie : vous avez un temps de réaction court pour éviter ces situations, et les gens ne sont pas bons dans ce domaine s'ils sont formés pour penser que la voiture fait ce qu'il faut", dit-il. La voiture est conçue pour bourdonner et émettre un bip lorsqu'elle détermine que le conducteur humain doit prendre le relais.

Le rappel d’aujourd’hui montre que le gouvernement américain « plonge les pieds dans l’eau » lorsqu’il s’agit de fixer des limites plus fermes non seulement à la technologie ambitieuse de Tesla, mais aussi à toutes les fonctionnalités avancées d’assistance à la conduite des constructeurs automobiles, a déclaré Koopman. Ces fonctionnalités sont destinées à rendre la conduite plus amusante, moins fastidieuse et plus sûre, mais elles obligent également les constructeurs automobiles à prendre des décisions délicates concernant les limites de l'attention humaine et la manière de commercialiser et d'expliquer les capacités de leur technologie.

L'approche de Tesla est unique. Dirigé par le PDG Elon Musk, il a résisté à l'examen du gouvernement, [législateurs critiqués](https://www.cnbc.com/2022/05/17/elon-musk-blasts-joe-biden-compares-him-to-anchorman .html), et, dans certains cas, a créé une technologie plus rapidement que les régulateurs ne pouvaient réglementer. "Il s'agit d'un exercice intéressant pour la NHTSA qui consiste à déterminer comment utiliser son autorité avec Tesla", a déclaré Koopman.

Une déclaration fournie par la porte-parole de la NHTSA, Lucia Sanchez, a déclaré que l'agence avait détecté les problèmes cités dans le nouveau rappel grâce à des analyses liées à une enquête ouverte en 2022. La sonde a examiné pourquoi les véhicules utilisant la fonction de pilotage automatique de Tesla ont des antécédents de collision avec des véhicules de premiers secours à l'arrêt.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd