Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 270

Incidentes Asociados

Incidente 2324 Reportes
Las Vegas Self-Driving Bus Involved in Accident

Loading...
La verdadera lección del accidente del primer día de ese transbordador autónomo
arstechnica.com · 2017

Se suponía que el miércoles sería el lanzamiento triunfal de un servicio de transporte gratuito y sin conductor en el centro de Las Vegas. Diseñado por la compañía francesa Navya, operada por otra compañía francesa llamada Keolis y patrocinada por la ciudad y la Asociación Estadounidense del Automóvil, se suponía que el proyecto piloto de un año demostraría el potencial de los vehículos autónomos de movimiento lento para cambiar la industria del tránsito.

En cambio, en cuestión de horas, el proyecto fue recibido con el peor titular posible: "Autobús lanzadera autónomo chocado el primer día".

El titular, y muchos otros similares, eran técnicamente precisos pero un poco engañosos. Las autoridades dicen que el otro vehículo, un camión que chocó contra el transbordador mientras retrocedía, tuvo la culpa. Y fue una colisión a tan baja velocidad que nadie resultó herido. El accidente "simplemente abolló los paneles de plástico en la parte delantera del transbordador", según Jeff Zurschmeide de Digital Trends.

Así que la implicación de muchos titulares, que el transbordador no funcionó correctamente y provocó un grave accidente, es totalmente errónea.

Lo que no está claro es si el transbordador podría haber hecho más para evitar la colisión.

Conduce tú mismo

Zurschmeide estaba en el autobús en el momento en que ocurrió el accidente y explica exactamente lo que sucedió:

Por otro lado, el transbordador hizo exactamente lo que estaba programado para hacer, y ese es un punto crítico. El programa de conducción autónoma no tuvo en cuenta que el vehículo de enfrente retrocedió inesperadamente. Teníamos unos 20 pies de calle vacía detrás de nosotros (miré) y la mayoría de los conductores humanos habrían puesto el auto en reversa y usado parte de ese espacio para alejarse del camión. O al menos se apoyó en la bocina e hizo que nuestra presencia fuera más difícil de perder. El transbordador no tenía esas respuestas en su programa.

Pero Keolis, la compañía que opera el transbordador autónomo, le dijo al reportero Pete Bigelow lo contrario:

  1. El transbordador es capaz de invertir direcciones. En este caso no fue así, porque los autos se detuvieron detrás de él. Esencialmente estaba encajonado, dice Chris Barker, vicepresidente de nueva movilidad en Keolis. — Pete Bigelow (@PeterCBitelow) 9 de noviembre de 2017

El informe policial, que se publicará la próxima semana, podría ayudar a aclarar las cosas.

De cualquier manera, una lección clara aquí es que los vehículos autónomos deben poder hacer más que simplemente evitar causar accidentes. También deben programarse para tomar el tipo de pasos de sentido común que los conductores humanos tomarían para evitar accidentes, incluso cuando técnicamente son culpa de otro conductor.

Un estudio de 2015 que analizó los primeros 1,2 millones de millas de datos de autos autónomos encontró que los vehículos (que en ese momento significaban principalmente autos de Google, aunque Audi y Delphi también tenían algunos autos en la carretera) parecían tener accidentes con más frecuencia que coches conducidos por humanos. Los accidentes fueron en su mayoría pequeños golpes de guardabarros, y todos ellos fueron culpa del otro vehículo. Incluso un accidente bastante dramático que provocó que uno de los vehículos de investigación autónomos de Uber se volcara a principios de este año fue causado por un error del conductor en el otro automóvil.

Una posible explicación para esos hallazgos de 2015 es que los conductores humanos habitualmente no informan sobre accidentes menores de este tipo. Pero otra posibilidad es que estos primeros autos autónomos conduzcan de una manera que los conductores humanos pueden encontrar confusas o inesperadas, como reducir la velocidad en un semáforo antes de lo que lo haría un conductor humano. Si los autos autónomos no tienen la culpa legalmente de ningún accidente, pero aun así conducen de una manera que hace que otros conductores los golpeen a un ritmo elevado, eso se convierte en un problema por derecho propio.

La buena noticia es que este tipo de accidentes rara vez provocan lesiones humanas. Entonces, si bien esto es algo en lo que Navya y otras compañías de vehículos sin conductor deberían trabajar, no es algo por lo que asustarse. No debería ser difícil entrenar a un automóvil sin conductor para que advierta un accidente inminente y tome medidas, como retroceder o avanzar, para evitarlo. Alguien en cada compañía de automóviles sin conductor solo necesita hacer el trabajo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd