Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1278

Incidents associés

Incident 7127 Rapports
Google admits its self driving car got it wrong: Bus crash was caused by software

Loading...
Un SUV autonome de Google impliqué dans un grave accident après qu'une camionnette a grillé un feu rouge à Mountain View
bizjournals.com · 2016

Un SUV Lexus doté de la technologie de conduite autonome de Google a été impliqué dans un grave accident vendredi après qu'un véhicule à conduite humaine a allumé un feu rouge à Mountain View.

La vidéo obtenue par 9to5Google montre le véhicule appartenant à Google traversant l'intersection d'El Camino Real et de Phyllis Avenue après que le feu soit passé au vert pendant six secondes. Une camionnette portant l'inscription "Interstate Batteries" a ensuite allumé le feu rouge. La Lexus était en mode autonome.

Tous les airbags se sont déployés dans la Lexus et aucun blessé n'a été signalé. Les employés de Google surveillant la voiture autonome ont été visiblement ébranlés, selon des témoins de l'incident. La voiture Google a subi de graves dommages corporels et des vitres brisées sur le côté droit. Il a été remorqué sur un camion plateau.

"Des milliers d'accidents se produisent chaque jour sur les routes américaines et le fonctionnement aux feux rouges est la principale cause d'accidents urbains aux États-Unis", a déclaré Google dans un communiqué, selon 9to5Google. "L'erreur humaine joue un rôle dans 94 % de ces accidents, c'est pourquoi nous développons une technologie entièrement autonome pour rendre nos routes plus sûres."

Les rapports d'accidents impliquant des véhicules autonomes sont de plus en plus fréquents à mesure que les voitures autonomes arrivent sur les routes publiques. La plupart des accidents, cependant, sont le résultat d'une erreur humaine. En juillet, le projet de voiture autonome de Google a connu son premier accident corporel à Mountain View. Trois employés de Google ont subi un coup de fouet cervical lorsqu'un VUS autonome de Google s'est retrouvé à l'arrière lorsqu'il s'est arrêté à l'intersection de Phyllis Avenue et de Martens Avenue.

Google n'est pas la seule entreprise de la Silicon Valley à avoir des problèmes de sécurité liés à la conduite autonome. Plus tôt cette année, Tesla a vu le premier décès impliquant l'un de ses véhicules sur lequel la fonction de pilote automatique était activée. Peu de temps après cet accident, il y a eu un incident non mortel en Chine où une Tesla engagée dans le pilote automatique a balayé une Volkswagen garée sur une autoroute de Pékin. L'incident n'a fait aucun blessé et Tesla a déclaré que le conducteur ne tenait pas le volant.

La semaine dernière, l'administration Obama a publié sa politique fédérale sur les véhicules automatisés, qui détaille une évaluation de la sécurité en 15 points pour les constructeurs de voitures autonomes. En vertu de la nouvelle réglementation, des entreprises comme Google et Tesla seront tenues de partager de grandes quantités de données avec les régulateurs fédéraux concernant la construction et les tests de voitures autonomes.

Les entreprises devront fournir des détails sur le fonctionnement des voitures, la manière dont elles enregistrent les données, les informations sur les accidents et la manière dont elles se protègent contre le piratage. Ils devront également fournir des réponses sur la manière dont le logiciel d'un véhicule gérera les situations éthiques. Le gouvernement publiera les réponses dans un rapport annuel.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd