Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1289

Incidents associés

Incident 7127 Rapports
Google admits its self driving car got it wrong: Bus crash was caused by software

Loading...
Une voiture autonome de Google percute un bus (mise à jour : déclaration)
engadget.com · 2016

Il s'agissait d'un incident mineur et nous sommes heureux d'annoncer qu'il n'y a eu aucun blessé. Cependant, cela pourrait être le premier cas où l'une des voitures autonomes de Google a causé un accident. Si c'est le cas, l'équipe de Mountain View ne peut plus dire que c'est une colombe innocente sur les routes - bien que ce ne soit pas un problème, son logiciel a pris une décision qui a conduit à un crash. Nous avons contacté Google pour voir s'il peut élaborer sur ce qui s'est passé.

Peu importe la réponse, il allait toujours être difficile d'éviter ce genre d'incident. Jusqu'à ce que les voitures autonomes puissent anticiper tous les dangers possibles sur la route, il y a toujours un risque qu'elles soient confuses ou fassent des choix avec des conséquences inattendues (et parfois malheureuses). Cependant, l'espoir à ce stade précoce n'est pas d'atteindre un bilan sans faille. Au lieu de cela, il s'agit de montrer que les voitures autonomes peuvent être globalement plus sûres que leurs homologues à conduite humaine.

Mise à jour : Google nous a fourni son point de vue sur l'incident à partir de son rapport mensuel de février. Il voit l'accident comme le résultat de cette "partie normale de la conduite" où il y a un blâme mutuel : les deux parties ont fait trop d'hypothèses. Alors oui, Google reconnaît qu'il est en partie responsable de ce qui s'est passé. À la suite de l'accident, il a déjà modifié son logiciel pour accepter que les bus sont "moins susceptibles de céder" et éviter des problèmes comme celui-ci à l'avenir. Lire la copie complète ci-dessous.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd