Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1508

Incidents associés

Incident 15110 Rapports
California Regulator Suspended Pony.ai's Driverless Testing Permit Following a Non-Fatal Collision

Loading...
Accidents de robotaxi responsables pour Waymo, Pony.AI, Olli et ce qu'ils signifient pour l'avenir
forbes.com · 2021

Trois accidents différents liés au robotaxi à la fin de cette année soulèvent des questions intéressantes sur ce qu'ils signifient pour l'avenir. Cela comprend un accident corporel grave lorsqu'une navette Olli près de Toronto a quitté la route, la perte du permis de test sans conducteur de Pony.AI en Californie lors d'un départ de route et, de manière moins significative, un accident corporel où un Waymo à conduite manuelle a heurté un piéton qui aurait déménagé de façon inattendue dans la rue à San Francisco.

La perfection n'a jamais été et ne devrait jamais être l'objectif de ces véhicules, donc des accidents vont se produire et leur fréquence augmentera avec le nombre de kilomètres parcourus. Dans le même temps, les accidents résultant d'un déploiement trop précoce méritent un examen plus approfondi. Une réaction excessive aux accidents peut également se produire, d'une manière qui retarde le déploiement de la technologie de prévention des accidents.

Olli

La navette Olli est une navette à basse vitesse qui était utilisée pour transporter des passagers vers et depuis une gare de train de banlieue à Whitby, en Ontario. La navette circule avec un superviseur à bord qui peut l'arrêter, comme le font la plupart des voitures d'essai autonomes. Malheureusement, ce superviseur a subi des blessures graves lorsque la navette a dévié de la route et s'est enfoncée dans un arbre sans raison claire. L'état du superviseur s'est amélioré - normalement, les blessures graves ne devraient pas se produire dans un véhicule roulant à seulement 20 km/h, mais c'est toujours possible lorsque les gens ne sont pas attachés ou protégés par des airbags et d'autres mesures de sécurité passive.

Mise à jour : Une navette similaire basée à Olli à Toronto a également été suspendue après l'accident.

Ce n'est pas le premier incident avec de telles navettes. Une navette Easymile a jeté des gens au sol lorsqu'elle s'est arrêtée brusquement sans raison à Columbus, OH, provoquant l'arrêt du service. À l'époque, je me suis penché sur la question des ceintures de sécurité dans ces véhicules, et cela reste un problème.

Les ceintures de sécurité sont rarement utilisées dans les transports en commun. Le transport en commun a un taux d'accidents inférieur à celui des voitures personnelles, mais il a reçu un peu de « passe » à ce sujet parce que, en partie, les ceintures de sécurité dégraderaient sérieusement le service de transport en commun. Imaginez si un bus ou un train de transport en commun ne pouvait pas autoriser les passagers debout, et si les gens devaient attendre avant de s'arrêter complètement avant de détacher et de sortir, puis le bus devait attendre que les nouveaux passagers s'assoient et se ceinturent avant de pouvoir démarrer. encore. Cela ne fonctionnerait pas. Mais les ceintures de sécurité sont une bonne idée si un véhicule a un risque important d'arrêts brusques inexpliqués ou de quitter la route.

Il est donc assez important de ne pas tester tant que cela est probable, ou que si les ceintures de sécurité sont installées, et surtout obligatoires, que le mandat soit explicitement temporaire, se termine lorsqu'un objectif est atteint. Une fois que vous avez besoin de ceintures de sécurité, il est presque impossible politiquement de décider ensuite de les retirer. Même si vous les exigez, il est difficile de faire un bus ou une navette compétitif, à moins qu'il ne fasse des trajets avec très peu d'arrêts.

Les trajets avec peu d'arrêts sont en fait la réponse - le transport robotisé n'a pas besoin d'être dans de gros véhicules qui sont limités en nombre car nous n'avons qu'un nombre limité de conducteurs. Avec le transport en commun robotisé, vous utilisez davantage de véhicules plus petits et les gardez assez pleins, plutôt que de gros véhicules peu fréquents qui roulent souvent avec de faibles charges. Plus petit est en fait plus économe en énergie et offre un meilleur service. Cela signifie que vous vous arrangez également pour faire beaucoup moins d'arrêts et, idéalement, vous effectuez chaque trajet sans escale, à l'exception du premier et du dernier kilomètre, en essayant d'égaler la vertu des voitures privées porte-à-porte. Ensuite, vous pouvez avoir des ceintures de sécurité sans problème.

Poney.AI

Les voitures Pony.AI sont plus fréquemment vues dans China Visual China Group via Getty Images

Pony.AI est l'une des rares entreprises à posséder et à utiliser un permis de la Californie pour tester des véhicules sans aucun conducteur de sécurité à bord. (Les véhicules EasyMile et Olli avaient un conducteur de sécurité, mais ont eu des incidents qu'un conducteur de sécurité avec seulement un bouton d'arrêt ne peut pas gérer.) Les détails sont rares, mais en octobre, un véhicule d'essai Pony.AI a également quitté la route. Il n'y a eu aucun blessé (comme vous l'espérez sans personne à bord.) Lorsqu'ils l'ont signalé, comme requis, au DMV de Californie, le DMV a décidé de révoquer leur permis.

C'est une action assez appropriée. En fait, on ne sait pas quelle est la valeur des tests sans chauffeur de sécurité et sans passagers, à part économiser un peu d'argent sur les salaires des chauffeurs de sécurité. Toutes ces équipes peuvent facilement s'offrir le pilote. Alors que tout le monde doit éventuellement se mettre à fonctionner sans conducteur de sécurité pour avoir un vrai service, et qu'il est bon de faire des tests de base de tout ce qui est nouveau, des tests approfondis sous cette forme semblent étranges.

Quand vient le temps des passagers, c'est une histoire légèrement différente. Vous apprenez des choses sur la façon dont les passagers interagissent avec le véhicule si vous sortez le conducteur de sécurité. Vous éliminez également le risque de propagation de Covid. Vous testez l'ensemble du système, mais à ce stade, vous ne testez pas vraiment le système d'auto-entraînement comme vous le faisiez auparavant. Vous n'y mettez pas de passagers seuls tant que vos tests n'ont pas révélé qu'il est sûr d'y mettre des passagers. Cela ne signifie pas qu'il est à l'épreuve des accidents, mais plutôt qu'il a atteint un niveau de risque faible qui le rend suffisamment bon pour un déploiement limité. Les véhicules Pony et Olli ont eu des accidents de départ de la route plus tôt que prévu pour un véhicule de ce niveau.

Waymo

L'accident de Waymo n'est presque pas considéré comme une histoire de conduite autonome. Selon Waymo, le véhicule n'était pas seulement en mode manuel, mais était dans une mission entièrement manuelle. (Il y a parfois eu des questions sur les déclarations selon lesquelles une voiture était en mode manuel si elle n'était entrée en mode manuel que récemment, et l'automatisation aurait peut-être encore joué un rôle dans toute la séquence.)

Les détails sont également rares, mais certains détails suggèrent une faute possible du piéton – mais la police se prononcera là-dessus. Le seul problème de conduite autonome est de noter que le véhicule Waymo pourrait, mais ne le fait pas, utiliser son impressionnant moteur de détection et de calcul pour prévenir les accidents, même en mode manuel. De nombreuses voitures sont équipées de systèmes d'évitement de collision avant qui freineront si le conducteur ne le fait pas. Les voitures de Waymo pourraient avoir le meilleur système de ce type si elles faisaient l'effort de le faire, bien que ce ne soit pas un effort anodin et qu'il comporte des risques de responsabilité pour un système qui ne verra qu'une utilisation mineure. Contrairement aux autres équipes, Waymo exploite un service sans chauffeur de sécurité à bord depuis des années en Arizona.

Qu'en est-il de plus d'accidents ?

Tous les accidents qui sont la faute d'un robocar sont susceptibles d'impliquer un certain type d'erreur. Contrairement aux humains, qui peuvent s'en tirer avec "Je ne l'ai tout simplement pas vu", le robocar regarde toujours dans toutes les directions, et nous pouvons regarder à l'intérieur de son cerveau et savoir généralement ce qui a causé l'erreur, bien que cela puisse être opaque si neural les réseaux ont joué un grand rôle dans la décision. Et après chaque accident, l'équipe s'assurera assez rapidement que ce type d'accident ne se reproduise plus, et chaque nouvelle révision sera testée encore et encore en simulateur.

Cela signifie que nous devons ajuster nos réactions. Si un accident causé par une erreur amène les gens, y compris les régulateurs ou le public à dire : « nous ne pouvons pas avoir un tel véhicule sur nos routes », nous ne les mettrons jamais sur les routes. Nous apprenons simplement à étudier le type d'erreur, et si cela indique que le véhicule a été placé sur la route beaucoup trop tôt et imprudemment, ou s'il s'agit du type d'accident qui va faire partie de toute période d'apprentissage. Après tout, nous laissons les conducteurs adolescents fraîchement frappés sur la route, sachant qu'ils sont plus dangereux que les autres et qu'ils auront des accidents, mais peuvent leur retirer leur permis s'ils sont imprudents ou obtiennent des DUI. C'est la seule voie qui les transforme en pilotes plus matures.

Prendre cette décision ne sera pas facile car tous les accidents auront une erreur à la base, une erreur qui, si nous pouvons regarder à l'intérieur du cerveau, suit des schémas de négligence. Mais à moins que vous ne croyiez pas que l'objectif final de conduire avec beaucoup moins de risques que les conducteurs humains puisse être atteint, plus tôt les véhicules sont déployés, plus tôt nous atteignons cet objectif. Les calculs indiquent une raison claire : les premiers véhicules qui sont plus risqués ne seront déployés que dans de petites flottes, pour un risque total relativement faible. Les véhicules ultérieurs qui réduisent les risques et préviennent les accidents seront déployés à grande échelle, réduisant massivement les risques par rapport aux conducteurs humains et par rapport aux risques initiaux qu'ils présentaient lorsqu'ils étaient peu nombreux. Nous ne voulons pas laisser passer cette opportunité.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd