Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1508

Incidentes Asociados

Incidente 15110 Reportes
California Regulator Suspended Pony.ai's Driverless Testing Permit Following a Non-Fatal Collision

Loading...
Accidentes de robotaxi con culpa para Waymo, Pony.AI, Olli y lo que significan para el futuro
forbes.com · 2021

Tres accidentes diferentes relacionados con robotaxi a fines de este año plantean algunas cuestiones interesantes sobre lo que significan en el futuro. Esto incluye un accidente con lesiones graves cuando un transbordador Olli cerca de Toronto se salió de la carretera, la pérdida del permiso de prueba sin conductor de Pony.AI en California por una salida de la carretera y, de manera menos significativa, un accidente con lesiones en el que un Waymo conducido manualmente golpeó a un peatón que supuestamente se mudó inesperadamente a la calle en San Francisco.

La perfección nunca ha sido y nunca debería ser el objetivo de estos vehículos, por lo que van a ocurrir accidentes y la frecuencia de los mismos aumentará con la cantidad de millas recorridas. Al mismo tiempo, los bloqueos que son el resultado de una implementación demasiado pronto merecen un escrutinio adicional. También puede ocurrir una reacción exagerada a los choques, de manera que se retrase el despliegue de la tecnología de prevención de choques.

Olli

El transbordador Olli es un transbordador de baja velocidad que se usaba para trasladar pasajeros hacia y desde una estación de trenes de cercanías en Whitby, Ontario. El transbordador funciona con un supervisor a bordo que puede detenerlo, como lo hacen la mayoría de los autos de prueba autónomos. Desafortunadamente, ese supervisor sufrió heridas graves cuando el transbordador se salió de la carretera y chocó contra un árbol sin motivo aparente. La condición del supervisor mejoró: normalmente, las lesiones graves no deberían ocurrir en un vehículo que solo va a 20 km/h, pero siempre es posible cuando las personas no tienen puesto el cinturón de seguridad o están protegidas por bolsas de aire y otras medidas de seguridad pasiva.

Actualización: un transbordador similar basado en Olli en Toronto también fue suspendido después del accidente.

Este no es el primer incidente con este tipo de transbordadores. Un transbordador Easymile arrojó personas al piso cuando se detuvo bruscamente sin motivo en Columbus, OH, lo que provocó el cierre del servicio. En ese momento, consideré la cuestión de los cinturones de seguridad en dichos vehículos, y sigue siendo un problema.

Los cinturones de seguridad rara vez se usan en el transporte público. El tránsito tiene una tasa de accidentes más baja que los automóviles personales, pero se le ha dado un poco de "aprobado" en esto porque, en parte, los cinturones de seguridad degradarían seriamente el servicio de tránsito. Imagínese si un autobús o tren de tránsito no pudiera permitir pasajeros de pie, y si las personas tuvieran que esperar antes de detenerse por completo antes de quitarse el cinturón y salir, y luego el autobús tuviera que esperar a que los nuevos pasajeros se sentaran y se colocaran el cinturón antes de poder arrancar. otra vez. No funcionaría. Pero los cinturones de seguridad son una buena idea si un vehículo tiene una posibilidad significativa de detenerse repentinamente sin explicación o salirse de la carretera.

Por lo tanto, es bastante importante que uno no realice pruebas mientras esto sea probable, o que si se colocan cinturones de seguridad, y especialmente obligatorios, que el mandato sea explícitamente temporal, terminado cuando se cumpla algún objetivo. Una vez que necesita los cinturones de seguridad, es casi imposible políticamente decidir quitarlos. Si bien los exige, es difícil hacer un autobús o servicio de enlace competitivo, a menos que haga viajes con muy pocas paradas.

Los viajes con pocas paradas en realidad son la respuesta: el transporte robótico no necesita estar en vehículos grandes que están limitados en número porque solo tenemos una cantidad limitada de conductores. Con el tránsito robótico, utiliza más vehículos más pequeños y los mantiene bastante llenos, en lugar de vehículos grandes e infrecuentes que a menudo funcionan con cargas bajas. Más pequeño es en realidad más eficiente energéticamente y proporciona un mejor servicio. Eso significa que también hace arreglos para hacer muchas menos paradas e, idealmente, hace todos los viajes sin parar, excepto la primera y la última milla, tratando de igualar la virtud de los autos privados de puerta a puerta. Entonces puedes tener cinturones de seguridad sin problema.

Pony.AI

Los autos Pony.AI se ven con más frecuencia en China Visual China Group a través de Getty Images

Pony.AI es una de las pocas empresas que tiene y está usando un permiso de California para probar vehículos sin ningún conductor de seguridad a bordo. (Los vehículos EasyMile y Olli tenían un conductor de seguridad, pero tenían incidentes que un conductor de seguridad con solo un botón de parada no puede manejar). Los detalles son escasos, pero en octubre, un vehículo de prueba Pony.AI también salió de la carretera. No hubo heridos (como era de esperar sin nadie a bordo). Cuando informaron esto, según lo requerido, al DMV de California, el DMV decidió revocar su permiso.

Esa es una acción bastante apropiada. En realidad, no está claro cuál es el valor de las pruebas sin un conductor de seguridad y sin pasajeros, además de ahorrar un poco de dinero en los salarios de los conductores de seguridad. Todos estos equipos pueden permitirse fácilmente el conductor. Si bien todos tienen que llegar a operar sin un controlador de seguridad para tener un servicio real, y es bueno hacer algunas pruebas básicas de cualquier cosa nueva, las pruebas extensas de esta forma parecen extrañas.

Cuando llega el momento de los pasajeros, es una historia ligeramente diferente. Aprendes cosas sobre cómo los pasajeros interactúan con el vehículo si sacas al conductor de seguridad. Eliminas el riesgo de propagar el Covid también. Está probando todo el sistema, pero en este punto, no está probando realmente el sistema de conducción autónoma como lo hacía antes. No pone pasajeros solos en él hasta que sus pruebas hayan revelado que es seguro poner pasajeros en él. Eso no significa que sea a prueba de accidentes, sino que ha alcanzado un nivel bajo de riesgo que lo hace lo suficientemente bueno para un despliegue limitado. Tanto el vehículo Pony como el Olli sufrieron accidentes de salida de la carretera antes de lo esperado para un vehículo de ese nivel.

Waymo

El accidente de Waymo casi no califica como una historia de conducción autónoma. Según Waymo, el vehículo no solo estaba en modo manual, sino que estaba en una misión totalmente manual. (A veces ha habido preguntas sobre las afirmaciones de que un automóvil estaba en modo manual si solo había ingresado al modo manual recientemente, y la automatización aún podría haber jugado un papel en toda la secuencia).

Los detalles también son escasos, pero algunos detalles sugieren una posible falla del peatón, pero la policía se pronunciará al respecto. El único problema de conducción autónoma es tener en cuenta que el vehículo Waymo podría, pero no lo hace, hacer uso de su impresionante motor de detección y computación para evitar accidentes incluso en modo manual. Muchos automóviles tienen sistemas para evitar colisiones frontales que pisarán los frenos si el conductor no lo hace. Los autos de Waymo podrían tener el mejor sistema de este tipo si hicieran el esfuerzo de hacerlo, aunque no es un esfuerzo trivial e incluye riesgos de responsabilidad para un sistema que solo verá un uso menor. A diferencia de los otros equipos, Waymo ha estado operando un servicio sin conductor de seguridad a bordo durante años en Arizona.

¿Qué pasa con más accidentes?

Es probable que todos los choques que son culpa de un robocar involucren algún tipo de error. A diferencia de los humanos, que pueden salirse con la suya, "Simplemente no lo vi", el robocar siempre está mirando en todas direcciones, y podemos mirar dentro de su cerebro y generalmente sabemos qué causó el error, aunque eso puede ser opaco si es neuronal. Las redes jugaron un papel importante en la decisión. Y después de cada accidente, el equipo se asegurará rápidamente de que ese tipo de accidente no vuelva a ocurrir, y cada nueva revisión se probará una y otra vez en el simulador.

Esto significa que tenemos que ajustar nuestras reacciones. Si un accidente causado por un error hace que las personas, incluidos los reguladores o el público, digan: "no podemos tener un vehículo así en nuestras carreteras", nunca los pondremos en las carreteras. Simplemente aprendemos a estudiar el tipo de error, y si indica que el vehículo se colocó en la carretera demasiado pronto y de manera imprudente, o si es del tipo de choque que formará parte de cualquier período de aprendizaje. Después de todo, permitimos que los conductores adolescentes recién llegados estén en la carretera, sabiendo que son más peligrosos que otros y que tendrán accidentes, pero que pueden quitarles sus licencias si son imprudentes o obtienen DUI. Ese es el único camino que los convierte en mejores conductores maduros.

Hacer esta determinación no será fácil porque todos los choques tendrán un error en la raíz, uno que, si podemos mirar dentro del cerebro, sigue patrones de negligencia. Pero a menos que no crea que se puede lograr el objetivo final de conducir con mucho menos riesgo que los conductores humanos, cuanto antes se desplieguen los vehículos, antes llegaremos a ese objetivo. Las matemáticas muestran una razón clara: los primeros vehículos que son más riesgosos se desplegarán solo en flotas pequeñas, con un riesgo total relativamente bajo. Los vehículos posteriores que reducen el riesgo y previenen accidentes se desplegarán a gran escala, reduciendo el riesgo enormemente en comparación con los conductores humanos y en comparación con cualquier riesgo inicial que presentaran cuando eran pocos. No queremos dejar pasar esa oportunidad.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd