Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2953

Incidentes Asociados

Incidente 5332 Reportes
Tesla FSD Misidentified Truck Hauling Traffic Lights as Trail of Traffic Lights

Loading...
Mire al piloto automático de Tesla engañado por un camión que transporta semáforos
futurism.com · 2021

El propietario de un Tesla Model 3 encontró una falla inusual mientras usaba el sistema de conducción asistida Autopilot en la carretera: el automóvil parecía detectar un rastro interminable de semáforos a lo largo de la carretera a medida que viajaba a más de 80 MPH.

En las imágenes de video de la pantalla del auto que el conductor subió a Reddit, parece que los semáforos están saliendo del camión a todo volumen frente a ellos, haciendo que la unidad parezca un videojuego de estilo "bullet hell" con el tema de un automóvil.

Después de mucha especulación entre otros redditores, el autor publicó un video de seguimiento revelando que habían estado conduciendo detrás de un camión que transportaba semáforos desactivados. Sin duda, es un problema técnico de aspecto divertido, pero la incapacidad del sistema para descubrir qué está pasando muestra lo asombrosamente difícil que es preparar los sistemas de conducción autónomos para la increíble variedad de casos extremos que podrían encontrar en el mundo real.

Seguridad primero

Por un lado, es bueno que el sistema de conducción asistida haya podido reconocer repetidamente que, de hecho, estaba mirando los semáforos. Y el auto nunca pareció intentar detenerse como si se hubiera topado con una luz roja, ya que una maniobra como esa podría haber resultado desastrosa.

Sin embargo, al igual que una falla similar en la que un Tesla confundió una señal de alto impresa en una valla publicitaria [con la real] (https://futurism.com/the-byte/tesla-slamming-brakes-sees-stop-sign-billboard ), el hecho de que el sistema no haya podido reconstruir el contexto de la situación sigue siendo un problema. El hecho de que Tesla no se diera cuenta de que las luces eran carga en lugar de señales instaladas en medio de la carretera es una clara señal de que Tesla no está lista para una autonomía total, sin importar cuántas veces [CEO Elon Musk lo diga] (https:/ /futurism.com/the-byte/tesla-admits-elon-musk-exaggerated-autopilot).

"Supongo que este escenario probablemente no formaba parte de los datos de entrenamiento del sistema", dijo Max Little, matemático de la Universidad de Birmingham y del MIT, en Twitter (https://twitter.com/MaxALittle/status/1400468962572341254). "Una buena ilustración de cómo probablemente será imposible alcanzar la plena autonomía de conducción simplemente registrando 'más datos'".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd