Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 644

Incidents associés

Incident 425 Rapports
Uber AV Killed Pedestrian in Arizona

Loading...
L'Economiste explique
economist.com · 2018

ILS sont l'un des sujets dont on parle le plus dans le domaine de la technologie, mais ces derniers temps, ils l'ont été pour toutes les mauvaises raisons. Une série d'accidents impliquant des voitures autonomes a soulevé des questions sur la sécurité de ces nouveaux véhicules futuristes, qui sont testés sur la voie publique dans plusieurs États américains. En mars 2018, un véhicule Uber expérimental, fonctionnant en mode autonome, a heurté et tué un piéton à Tempe, en Arizona, le premier accident mortel de ce type. Le 24 mai, le National Transportation Safety Board (NTSB) des États-Unis a publié son rapport préliminaire sur l'accident. Qu'est-ce qui a causé l'accident et que dit-il plus largement sur la sécurité des véhicules autonomes (VA) ?

Les systèmes informatiques qui pilotent les voitures se composent de trois modules. Le premier est le module de perception, qui prend les informations des capteurs de la voiture et identifie les objets pertinents à proximité. La voiture Uber, une Volvo XC90 modifiée, était équipée de caméras, de radars et de LIDAR (une variante de radar qui utilise des impulsions lumineuses invisibles). Les caméras peuvent repérer des éléments tels que le marquage des voies, les panneaux de signalisation et les feux de circulation. Le radar mesure la vitesse des objets à proximité. LIDAR détermine la forme de l'environnement de la voiture dans les moindres détails, même dans l'obscurité. Les lectures de ces capteurs sont combinées pour construire un modèle du monde, et les systèmes d'apprentissage automatique identifient ensuite les voitures, les vélos, les piétons à proximité, etc. Le deuxième module est le module de prédiction, qui prévoit le comportement de chacun de ces objets dans les prochaines secondes. Cette voiture changera-t-elle de voie ? Ce piéton entrera-t-il sur la route ? Enfin, le troisième module utilise ces prédictions pour déterminer comment le véhicule doit réagir (ce que l'on appelle la « politique de conduite ») : accélérer, ralentir ou tourner à gauche ou à droite.

Recevez notre newsletter quotidienne Améliorez votre boîte de réception et recevez notre envoi quotidien et les choix de l'éditeur.

De ces trois modules, le plus difficile à construire est le module de perception, explique Sebastian Thrun, un professeur de Stanford qui dirigeait l'effort de Google sur les véhicules autonomes. Les choses les plus difficiles à identifier, dit-il, sont des objets rarement vus tels que des débris sur la route ou des sacs en plastique soufflant sur une autoroute. Au début du projet AV de Google, se souvient-il, "notre module de perception ne pouvait pas distinguer un sac en plastique d'un enfant volant". Selon le rapport du NTSB, le véhicule Uber a eu du mal à identifier Elaine Herzberg alors qu'elle faisait rouler son vélo sur une route à quatre voies. Bien qu'il fasse nuit, le radar et le LIDAR de la voiture l'ont détectée six secondes avant l'accident. Mais le système de perception s'est embrouillé : il l'a classée comme un objet inconnu, puis comme un véhicule et enfin comme une bicyclette, dont il ne pouvait prédire la trajectoire. À peine 1,3 seconde avant l'impact, le système de conduite autonome s'est rendu compte qu'un freinage d'urgence était nécessaire. Mais le système de freinage d'urgence intégré de la voiture avait été désactivé, pour éviter tout conflit avec le système de conduite autonome ; au lieu de cela, un opérateur de sécurité humain dans le véhicule doit freiner en cas de besoin. Mais l'opérateur de sécurité, qui avait regardé l'écran d'affichage du système d'auto-conduite, n'a pas freiné à temps. Mme Herzberg a été heurtée par le véhicule et est décédée des suites de ses blessures.

La cause de l'accident comporte donc de nombreux éléments, mais est finalement une défaillance de conception du système. Lorsque son module de perception devient confus, un AV devrait ralentir. Mais un freinage inattendu peut causer ses propres problèmes : des AV confus ont par le passé été emboutis (par des conducteurs humains) après avoir ralenti soudainement. D'où la délégation de la responsabilité du freinage à des conducteurs de sécurité humains, qui sont là pour rattraper le système lorsqu'un accident semble imminent. En théorie, l'ajout d'un conducteur de sécurité pour superviser un système imparfait garantit que le système est globalement sûr. Mais cela ne fonctionne que s'ils font attention à la route en tout temps. Uber revoit maintenant ses procédures et a suspendu tous les tests de ses AV ; on ne sait pas quand, ni même si, il sera autorisé à reprendre les tests. D'autres fabricants d'audiovisuels, ayant analysé la vidéo de l'accident de Tempe, affirment que leurs systèmes auraient freiné pour éviter une collision. À long terme, les véhicules autonomes promettent d'être beaucoup plus sûrs que les voitures ordinaires, étant donné que 94 % des accidents sont causés par une erreur du conducteur. Mais à l'heure actuelle, il incombe à Uber et aux fabricants d'audiovisuels de rassurer le public sur le fait qu'ils font tout ce qu'ils peuvent pour éviter les accidents sur la route vers un avenir plus sûr.

Creusez plus profondément

Qu'est-ce que c'est que de rouler dans un Uber autonome (mars 2018)

Pourquoi les voitures autonomes seront principalement partagées, et non possédées (mars 2018)

Réinventer les roues : dossier spécial sur les voitures autonomes (mars 2018)

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd