Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1266

Incidents associés

Incident 7127 Rapports
Google admits its self driving car got it wrong: Bus crash was caused by software

Loading...
Google accepte le blâme pour le crash de sa voiture autonome
newscientist.com · 2016

AP/Press Association Images/Tony Avelar

Le 14 février, l'IA en charge d'une des voitures de Google a percuté le flanc d'un bus. L'incident – que le Département des véhicules à moteur de Californie a documenté publiquement hier – est le premier cas clair d'accident causé par la technologie de conduite autonome du géant de la technologie.

Le bus roulait tout droit sur la route très fréquentée d'El Camino Real dans la Silicon Valley lorsque le SUV Lexus de Google s'est écrasé sur le côté, écrasant l'aile de la voiture. Le rapport d'accident indique que la voiture a subi des dommages à une roue, à la carrosserie et à des capteurs latéraux. Il n'y a pas eu de blessés.

Les voitures autonomes de Google ont été impliquées dans 18 accidents à Mountain View depuis que l'entreprise a commencé à y tester ses systèmes de conduite autonome en 2010. Dans tous les accidents précédents, cependant, un autre véhicule a heurté la voiture de Google alors qu'elle était à l'arrêt ou se déplaçait lentement. C'est la première fois qu'un véhicule contrôlé par le logiciel de Google semble avoir été fautif.

Publicité

"Nous portons clairement une part de responsabilité, car si notre voiture n'avait pas bougé, il n'y aurait pas eu de collision", a déclaré Google dans un communiqué.

Pas de rendement

Le bus numéro 22 transportait 15 passagers sur une route sillonnant la Silicon Valley de Palo Alto à San Jose. La voiture Google s'est arrêtée pour éviter des sacs de sable positionnés autour d'un égout pluvial, puis a tenté de se fondre dans la circulation devant le bus, qui roulait à environ 15 miles par heure (24 km/h).

"Notre voiture avait détecté le bus qui approchait, mais avait prédit qu'il nous céderait parce que nous étions devant lui", explique Google.

Un porte-parole de la Santa Clara Valley Transportation Authority, qui gère le transport en commun dans la région, a déclaré que bien que le bus n'ait subi que des dommages mineurs, ses passagers ont été transférés et le véhicule a été retiré du service. Personne sur les lieux n'a appelé la police. La VTA n'a pas confirmé si elle avait l'intention de poursuivre Google pour le coût des réparations du bus articulé à un étage.

Sur les 17 accidents antérieurs impliquant les voitures autonomes de Google, quatre se sont également produits sur El Camino Real, et un à la même intersection que l'incident le plus récent. Selon un porte-parole du département de police de Mountain View, El Camino n'est pas considéré comme un point chaud pour les collisions.

Néanmoins, c'est la rue de surface la plus fréquentée de Mountain View, avec plusieurs voies de circulation, des piétons et des cyclistes, ainsi que des véhicules sortant des magasins et des entreprises.

« Le monde réel est désordonné ! Et c'est pourquoi les critères les plus importants pour les premiers déploiements de véhicules automatisés seront l'emplacement, l'emplacement, l'emplacement », explique Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud.

Google admet qu'il doit améliorer la conduite sociale de son logiciel : le va-et-vient continu de la conduite où les conducteurs humains anticipent les actions des autres usagers de la route, même lorsque les deux (ou aucun) respectent strictement la loi. La société affirme avoir déjà mis à jour le logiciel de ses voitures pour comprendre que les gros véhicules comme les bus sont moins susceptibles de céder.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd