Incidentes Asociados

El propietario de un Tesla Model 3 encontró una falla inusual mientras usaba el sistema de conducción asistida Autopilot en la carretera: el automóvil parecía detectar un rastro interminable de semáforos a lo largo de la carretera a medida que viajaba a más de 80 MPH.
En las imágenes de video de la pantalla del auto que el conductor subió a Reddit, parece que los semáforos están saliendo del camión a todo volumen frente a ellos, haciendo que la unidad parezca un videojuego de estilo "bullet hell" con el tema de un automóvil.
Después de mucha especulación entre otros redditores, el autor publicó un video de seguimiento revelando que habían estado conduciendo detrás de un camión que transportaba semáforos desactivados. Sin duda, es un problema técnico de aspecto divertido, pero la incapacidad del sistema para descubrir qué está pasando muestra lo asombrosamente difícil que es preparar los sistemas de conducción autónomos para la increíble variedad de casos extremos que podrían encontrar en el mundo real.
Seguridad primero
Por un lado, es bueno que el sistema de conducción asistida haya podido reconocer repetidamente que, de hecho, estaba mirando los semáforos. Y el auto nunca pareció intentar detenerse como si se hubiera topado con una luz roja, ya que una maniobra como esa podría haber resultado desastrosa.
Sin embargo, al igual que una falla similar en la que un Tesla confundió una señal de alto impresa en una valla publicitaria [con la real] (https://futurism.com/the-byte/tesla-slamming-brakes-sees-stop-sign-billboard ), el hecho de que el sistema no haya podido reconstruir el contexto de la situación sigue siendo un problema. El hecho de que Tesla no se diera cuenta de que las luces eran carga en lugar de señales instaladas en medio de la carretera es una clara señal de que Tesla no está lista para una autonomía total, sin importar cuántas veces [CEO Elon Musk lo diga] (https:/ /futurism.com/the-byte/tesla-admits-elon-musk-exaggerated-autopilot).
"Supongo que este escenario probablemente no formaba parte de los datos de entrenamiento del sistema", dijo Max Little, matemático de la Universidad de Birmingham y del MIT, en Twitter (https://twitter.com/MaxALittle/status/1400468962572341254). "Una buena ilustración de cómo probablemente será imposible alcanzar la plena autonomía de conducción simplemente registrando 'más datos'".