Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1277

Incidents associés

Incident 7127 Rapports
Google admits its self driving car got it wrong: Bus crash was caused by software

Loading...
Une voiture de Google heurte un bus, première fois en faute
usatoday.com · 2016

FERMER Un SUV Lexus autonome appartenant à la société mère de Google, Alphabet, a heurté un bus le 14 février alors qu'il effectuait des tests dans les rues de Mountain View, en Californie. Wochit

Un SUV Lexus appartenant à Google et doté de capteurs de voiture autonomes a eu son premier accident dans lequel il était en faute, a rapporté la société au California DMV. (Photo : Tony Avelar, AP)

SAN FRANCISCO - Après plus d'un million de kilomètres de conduite autonome au cours des six dernières années, la voiture autonome de Google n'a jamais été en faute dans les 17 accidents signalés par la société au California Department of Motor Vehicles.

Jusqu'ici.

Selon un rapport du DMV, le 14 février, un SUV Lexus autonome appartenant à la société mère Alphabet était en train d'être testé dans les rues de Mountain View, en Californie, lorsqu'il a heurté un bus alors qu'il roulait à 2 mph. L'incident était le résultat de conditions routières compromises par des sacs de sable placés dans une voie, ce qui a obligé la Lexus à se déplacer dans la voie de gauche. Le bus municipal s'approchait dans cette voie à 15 mph.

La voiture Google prévoyait que le bus ralentirait, tandis que le chauffeur du bus pensait que la voiture Google se retirerait de son effort de fusion. Il n'y a pas eu de blessé et l'accident a endommagé l'aile avant gauche et certains capteurs.

Dans tous ses accidents précédents, la majorité étaient le résultat de conducteurs humains qui ont arrêté les voitures Google à des vitesses lentes, généralement aux intersections où il prévoyait que la voiture Google avancerait.

Mardi, Google doit publier son rapport mensuel sur son programme de voitures autonomes en cours. Mais dans un communiqué publié lundi, Google a reconnu que son véhicule piloté par ordinateur avait pris la mauvaise décision, mais a également souligné que l'incident reflétait ce genre de conjectures qui se produisent entre les conducteurs humains.

La voiture autonome de Google. Une version Lexus des voitures autonomes de l'entreprise a eu un accident avec un bus le 14 février. (Photo : Noah Berger, AFP/Getty Images)

"C'est un exemple classique de la négociation qui fait partie intégrante de la conduite - nous essayons tous de prédire les mouvements de chacun", indique le communiqué. "Dans ce cas, nous portons clairement une part de responsabilité, car si notre voiture n'avait pas bougé, il n'y aurait pas eu de collision. Cela dit, notre chauffeur d'essai pensait que le bus allait ralentir ou s'arrêter pour nous permettre de nous fondre dans le trafic, et qu'il y aurait suffisamment d'espace pour le faire."

Il a ajouté: "Malheureusement, toutes ces hypothèses nous ont conduits au même endroit de la voie au même moment. Ce type de malentendu se produit tous les jours entre conducteurs humains sur la route."

Bien qu'un nombre croissant de technologies et de constructeurs automobiles progressent rapidement sur la voie des voitures semi- et entièrement autonomes, seul Google vise un véhicule qui, à terme, ne comporterait ni volant ni pédales. Les tests de voitures autonomes de Google sont toujours effectués avec des conducteurs de sécurité légalement mandatés. Parfois, ils prennent le contrôle des véhicules d'essai - qui, selon la loi, doivent être équipés de roues et de pédales - mais ne l'ont pas fait dans cet accident particulier.

Les dirigeants automobiles de Google se sont récemment opposés à une proposition du California DMV d'exiger que toutes les voitures autonomes aient des volants et des pédales. Google soutient depuis longtemps que les ordinateurs reliés à des radars embarqués sophistiqués, des lasers et des caméras conduiront à terme à une réduction du nombre d'accidents de la route et de décès. L'erreur humaine est augmentée de nos jours par la prévalence des incidents de distraction au volant créés par les smartphones.

Suivez Marco della Cava, journaliste technique de USA TODAY, sur Twitter : @marcodellacava

Lisez ou partagez cette histoire : http://usat.ly/1oTAXjj

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd