Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1202

Incidents associés

Incident 6723 Rapports
Sleeping Driver on Tesla AutoPilot

Loading...
Qui conduit ? Les voitures autonomes pourraient entrer dans la phase la plus dangereuse
theguardian.com · 2018

Les commandes du pilote automatique ne sont pas encore pleinement capables de fonctionner sans intervention humaine, mais elles sont assez bonnes pour nous endormir dans un faux sentiment de sécurité

Lorsque des policiers californiens se sont approchés d'une Tesla arrêtée au centre d'une autoroute à cinq voies à l'extérieur de San Francisco la semaine dernière, ils ont trouvé un homme endormi au volant. Le conducteur, qui a été arrêté pour suspicion de conduite en état d'ébriété, leur a dit que sa voiture était en "pilote automatique", le système d'aide à la conduite semi-autonome de Tesla.

Lors d'un autre incident cette semaine, les pompiers de Culver City ont signalé qu'une Tesla avait embouti leur camion de pompiers stationné alors qu'il assistait à un accident sur l'autoroute. Encore une fois, le conducteur a déclaré que le véhicule était en pilote automatique.

CHP San Francisco (@CHPSanFrancisco) Lorsque vous vous évanouissez au volant sur le Bay Bridge avec plus de 2 fois la limite légale d'alcoolémie et que vous êtes retrouvé par un moteur CHP. Le conducteur a expliqué que Tesla avait été mis en pilote automatique. Il a été arrêté et accusé de suspicion de conduite avec facultés affaiblies. Voiture remorquée (non, elle ne s'est pas rendue à la cour de remorquage). pic.twitter.com/4NSRlOBRBL

La promesse maintes fois répétée de la technologie sans conducteur est qu'elle rendra les routes plus sûres en réduisant l'erreur humaine, la principale cause d'accidents. Cependant, les constructeurs automobiles ont encore un long chemin à parcourir avant de pouvoir éliminer complètement le conducteur.

Ce qui reste est une période intermédiaire désordonnée où les voitures sont progressivement augmentées avec des technologies automatisées telles que la détection d'obstacles et le centrage des voies. En théorie, ceux-ci peuvent réduire le risque de crash, mais ils ne sont pas à sécurité intégrée. Comme l'a dit une porte-parole de Tesla : "Le pilote automatique est destiné à être utilisé uniquement avec un conducteur pleinement attentif."

L'autonomie donne aux gens le sentiment que quelque chose est sous contrôle, et nous avons tendance à surestimer les capacités de la technologie Nidhi Kalra, informaticien

Cependant, des recherches ont montré que les conducteurs se laissent bercer par un faux sentiment de sécurité au point que leur esprit et leur regard commencent à s'éloigner de la route. Les gens deviennent distraits ou préoccupés par leur smartphone. Ainsi, lorsque la voiture rencontre une situation où l'humain doit intervenir, le conducteur peut être lent à réagir.

À l'heure où l'on assiste déjà à une recrudescence des collisions causées par des conducteurs distraits par leur smartphone, nous pourrions entrer dans une période particulièrement dangereuse de crise de croissance avec les systèmes de conduite autonome.

« Les gens sont déjà enclins à être distraits. Nous sommes au téléphone, mangeons des hamburgers, conduisons avec nos genoux », a déclaré Nidhi Kalra, scientifique principal de l'information à la Rand Corporation. "L'autonomie supplémentaire donne aux gens le sentiment que quelque chose d'autre est sous contrôle, et nous avons tendance à surestimer les capacités de la technologie."

Steven Shladover, du programme Path de l'Université de Californie à Berkeley, a été plus sévèrement critique à l'égard des constructeurs automobiles : "Ces entreprises surestiment les capacités des systèmes dont elles disposent et le public est induit en erreur."

Waymo, le spin-off de la voiture autonome de Google, a découvert le problème du transfert lorsqu'il testait un système de conduite automatisée de "niveau 3" - un système qui peut se conduire lui-même dans certaines conditions, mais dans lequel l'humain doit toujours prendre le relais si la situation devient difficile. Le niveau suivant, quatre, est ce que la plupart des gens considèrent comme "entièrement autonome".

La plupart des fonctionnalités avancées d'aide à la conduite introduites par Tesla, Mercedes, BMW et Cadillac sont classées dans l'automatisation de niveau 2.

Au cours des tests, Waymo a enregistré ce que son PDG, John Krafcik, a décrit comme des séquences vidéo « plutôt effrayantes » de conducteurs envoyant des SMS, se maquillant et même dormant au volant pendant que leurs voitures dévalaient l'autoroute. Cela a conduit Waymo à décider de sauter complètement l'automatisation de niveau 3 et de se concentrer plutôt sur une autonomie totale.

"Nous avons constaté que les conducteurs humains faisaient trop confiance à la technologie et ne surveillaient pas la chaussée avec suffisamment d'attention pour pouvoir prendre le contrôle en toute sécurité en cas de besoin", a déclaré l'entreprise dans son rapport de sécurité de 2017.

Ian Reagan de l'Insurance Institute for Highway Safety (IIHS) partage la prudence de Waymo, bien qu'il reconnaisse que le potentiel de sécurité des systèmes automatisés est "énorme".

"Il y a beaucoup de conséquences involontaires potentielles, en particulier avec les systèmes de niveau 2 et 3", a-t-il déclaré, expliquant comment l'IIHS avait acheté et testé plusieurs voitures avec une automatisation de niveau 2, y compris des véhicules de Tesla, Mercedes et BMW. "Même les meilleurs font des choses auxquelles on ne s'attend pas", a-t-il déclaré.

Elon Musk aligne 55 milliards de dollars sur salaire - le plus gros bonus au monde Lire la suite

Lors des tests, l'IIHS a enregistré une Mercedes ayant des problèmes lorsque la voie sur l'autoroute bifurquait en deux. "Le système radar s'est verrouillé sur la voie de sortie de droite lorsque le conducteur essayait d'aller tout droit", a-t-il déclaré.

Le pilote automatique de Tesla a souffert d'un problème différent et reproductible qui l'a fait virer dans le garde-corps à l'approche de la crête d'une colline. "Si le conducteur avait été distrait, cela aurait certainement causé un accident", a-t-il déclaré.

Les inquiétudes suscitées par ce nouveau type de distraction au volant obligent les constructeurs automobiles à introduire des dispositifs de sécurité supplémentaires pour compenser. Par exemple, GM a introduit la technologie de suivi oculaire

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd