Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3093

Incidentes Asociados

Incidente 5405 Reportes
Tesla Failed to Yield to Detected Pedestrian on Crosswalk, Reportedly Violated Traffic Law

Loading...
No, no es sorprendente que un Tesla que usa FSD haya volado a través de un paso de peatones
jalopnik.com · 2023

Recientemente, una cuenta de fan de Tesla compartió un video de un Tesla usando la llamada Autoconducción completa en una carretera de dos carriles. Mientras se reproduce el video, puede ver que el automóvil se acerca a un cruce peatonal marcado. En la pantalla central, los sensores del automóvil detectan un paso de peatones, pero a diferencia de los automóviles que viajan en la dirección opuesta, el Tesla no se detiene y cede el paso al peatón. En cambio, continúa conduciendo normalmente.

“Una de las cosas más optimistas/emocionantes que he visto en Tesla Full Self-Driving Beta 11.4.1. Detectó al peatón, pero en lugar de pisar los frenos simplemente avanzó como lo haría un humano sabiendo que había suficiente tiempo para hacerlo”, escribieron.

Lo siento, pero eso no es remotamente emocionante o sorprendente de ninguna manera. Y si bien puede ser lo que hacen algunos humanos, también es contra la ley. Un cruce de peatones en un cruce de peatones marcado tiene el derecho de paso, y se supone que debe ceder el paso. El hecho de que el Tesla no se detuviera es un problema importante. ¿Por qué el software no sabe ceder el paso a los peatones?

¿Es un problema demasiado complejo para resolver todavía? ¿Es porque Tesla piensa que sabe más que las personas que hacen las leyes? De cualquier manera, está claro que no se debe permitir que FSD opere en áreas donde los peatones pueden estar presentes.

El hecho de que los fanáticos de Tesla miren ese video y vean una tecnología increíble y no una falla importante con FSD también es aterrador, aunque no sea exactamente sorprendente. Parecen pensar que a los Tesla se les debería permitir infringir la ley si el automóvil cree que puede hacerlo de manera segura. En este caso, nadie resultó herido, pero ese no es el punto. El hecho de que seas una persona especial y elegante en un automóvil especial y elegante no te da derecho a ignorar las reglas de tránsito. Y no es que FSD tenga un historial perfecto de seguridad.

En un momento en que las muertes de peatones continúan aumentando, debemos hacer más para mantener a las personas seguras, no animar sobre usos irresponsables de tecnología a medias.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd