Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 634

Incidents associés

Incident 425 Rapports
Uber AV Killed Pedestrian in Arizona

Loading...
Rapport : Un bogue logiciel a entraîné la mort dans le crash de la conduite autonome d'Uber
arstechnica.com · 2018

L'accident mortel qui a tué la piétonne Elaine Herzberg à Tempe, en Arizona, en mars s'est produit à cause d'un bogue logiciel dans la technologie de voiture autonome d'Uber, a rapporté lundi Amir Efrati de The Information. Selon deux sources anonymes qui ont parlé à Efrati, les capteurs d'Uber ont en fait détecté Herzberg alors qu'elle traversait la rue avec son vélo. Malheureusement, le logiciel l'a classée comme "faux positif" et a décidé que cela n'avait pas besoin de s'arrêter pour elle.

Distinguer les objets réels des objets illusoires est l'un des défis les plus fondamentaux du développement d'un logiciel de voiture autonome. Le logiciel doit détecter des objets tels que des voitures, des piétons et de gros rochers sur son chemin et s'arrêter ou faire une embardée pour les éviter. Cependant, il peut y avoir d'autres objets, comme un sac en plastique sur la route ou une poubelle sur le trottoir, qu'une voiture peut ignorer en toute sécurité. Les anomalies des capteurs peuvent également amener le logiciel à détecter des objets apparents là où aucun objet n'existe réellement.

Les concepteurs de logiciels sont ici confrontés à un compromis fondamental. Si le logiciel est programmé pour être trop prudent, le trajet sera lent et saccadé, car la voiture ralentit constamment pour des objets qui ne représentent aucune menace pour la voiture ou qui ne sont pas là du tout. Le réglage du logiciel dans la direction opposée produira une conduite fluide la plupart du temps, mais au risque que le logiciel ignore parfois un objet réel. Selon Efrati, c'est ce qui s'est passé à Tempe en mars - et malheureusement, le "vrai objet" était un être humain.

"Il y a une raison pour laquelle Uber réglerait son système pour qu'il soit moins prudent avec les objets autour de la voiture", a écrit Efrati. "Il essaie de développer une voiture autonome dans laquelle il est confortable de rouler."

"Uber avait couru pour atteindre un objectif interne de fin d'année consistant à permettre aux clients de la région de Phoenix de monter dans les véhicules Volvo autonomes d'Uber sans conducteur de sécurité assis au volant", a ajouté Efrati.

Plus le logiciel d'une voiture est programmé avec précaution, plus il freinera inutilement. Cela produira une conduite plus sûre, mais aussi moins confortable pour les passagers.

Cela fournit un contexte utile pour le rapport d'Efrati de mars selon lequel les voitures de Cruise, la filiale de voitures autonomes de GM, "souvent et hésitent". Il a écrit que les voitures de croisière "ralentissent ou s'arrêtent parfois si elles voient un buisson sur le côté d'une rue ou un poteau de séparation de voie, le confondant avec un objet sur leur chemin".

Vous pourriez lire cela comme un signe que le logiciel de Cruise n'est pas très bon. Mais vous pouvez également y voir un signe que les ingénieurs de Cruise sont suffisamment prudents. Il est évidemment préférable pour un logiciel de produire un trajet saccadé et erratique que de fournir un trajet en douceur qui passe occasionnellement sur un piéton. Et une telle prudence est particulièrement justifiée lorsque vous testez dans un environnement urbain très fréquenté comme San Francisco.

Bien sûr, l'objectif à long terme est que les voitures autonomes deviennent si douées pour reconnaître les objets que les faux positifs et les faux négatifs deviennent rares. Mais la mort de Herzberg nous rappelle tragiquement que les entreprises ne doivent pas prendre trop d'avance sur elles-mêmes. Mettre des voitures entièrement autonomes sur la route est un objectif louable. Mais s'assurer que cela est fait en toute sécurité est plus important.

Uber a refusé de commenter The Information, citant des exigences de confidentialité liées à une enquête en cours par le National Transportation Safety Board. Nous avons demandé à Uber de commenter et nous mettrons à jour si l'entreprise répond.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd