Problema 2999

Tesla lanzó una nueva versión de su controvertido software "Full Self-Driving Beta" el mes pasado. Entre las actualizaciones de la versión 11.4 hay nuevos algoritmos que determinan el comportamiento del automóvil alrededor de los peatones. Pero de manera alarmante, un video publicado en Twitter durante el fin de semana muestra que aunque el sistema Tesla puede ver a los peatones cruzando la calle, un Tesla puede elegir no detenerse o incluso reducir la velocidad cuando pasa.
El video fue publicado por la cuenta Whole Mars Catalog, una cuenta pro-Tesla de alto perfil con más de 300,000 seguidores. El tweet, que ha sido visto 1,7 millones de veces, presentaba un videoclip de cinco segundos con el texto adjunto:
Una de las cosas más optimistas/emocionantes que he visto en Tesla Full Self-Driving Beta 11.4.1.
Detectó al peatón, pero en lugar de pisar los frenos simplemente avanzó como lo haría un humano sabiendo que había suficiente tiempo para hacerlo.
La persona que publicó el video luego aclaró que fue filmado en San Francisco y que cualquiera que no esté de acuerdo con este comportamiento de conducción [debe no estar familiarizado con la vida de la ciudad] (https://twitter.com/WholeMarsBlog/status/1657940431026667520?s=20) . (Como alguien que ha vivido en grandes ciudades toda su vida, definitivamente no estoy de acuerdo con que los autos no se detengan para los peatones en un cruce de peatones).
La mayoría de los sistemas de conducción parcialmente automatizados, como Super Cruise de General Motors o BlueCruise de Ford, están geocercados a un dominio operativo controlado, generalmente autopistas de carril dividido de acceso restringido. Sin embargo, Tesla ha adoptado un enfoque diferente y permite a los usuarios liberar su software beta FSD en las calles de la superficie.
No todo el mundo se siente tan cómodo con los conductores de Tesla probando software inacabado con otros usuarios de la carretera. En febrero, [la Administración Nacional de Seguridad del Tráfico en Carreteras le dijo a Tesla que emitiera un retiro](https://arstechnica.com/cars/2023/02/tesla-to-recall-362758-cars-because-full-self-driving- beta-is-dangerous/) para casi 363.000 vehículos con el software instalado.
La agencia tenía cuatro quejas principales, que incluyen que el "sistema FSD Beta puede permitir que el vehículo actúe de manera insegura en las intersecciones, como viajar en línea recta a través de una intersección mientras está en un carril de solo giro, ingresar a una intersección controlada por señales de alto sin llegar a un detenerse por completo, o proceder a una intersección durante una señal de tráfico amarilla constante sin la debida precaución".
Se suponía que la actualización de la versión 11.4 en abril mejoraría el comportamiento de los autos, pero ahora hay más evidencia de que el FSD Beta todavía hace que los Tesla infrinjan las leyes de tránsito. [Sección 7 del Manual del conductor de California](https://www.dmv.ca.gov/portal/handbook/california-driver-handbook/laws-and-rules-of-the-road/#:~:text=Pedestrians %20have%20the%20right%2Dof, and%20be%20prepared%20to%20stop.), que trata sobre las leyes y normas de tránsito, dice que los peatones se consideran usuarios vulnerables de la vía y que "los peatones tienen el derecho de paso". en cruces peatonales marcados o no marcados. Si hay una línea de límite antes del cruce de peatones, deténgase en la línea de límite y permita que los peatones crucen la calle".
Esta no es la primera vez que el software de Tesla [ha sido programado para violar las leyes de tránsito] (https://jalopnik.com/teslas-fsd-betas-driving-modes-bring-up-interesting-eth-1848331683).
FSD es "hacer o deshacer" para Tesla
El CEO de Tesla, Elon Musk, ha hablado repetidamente sobre la importancia de FSD para su empresa, diciendo que es "un éxito o un fracaso" para Tesla y que es la diferencia entre que Tesla "valga mucho dinero o que valga básicamente cero".
FSD Beta ha sido implicado en un número de [choques](https://arstechnica.com/cars/2022 /12/eight-car-Thanksgiving-pileup-blamed-on-tesla-full-self-driving-software/) y es objeto de varias de las investigaciones federales abiertas sobre los vehículos eléctricos de Tesla. La opción ahora cuesta $ 15,000, y cada vez que el fabricante de automóviles declara que otra función está "completa", [le permite a la compañía reconocer algunos de los ingresos diferidos] (https://arstechnica.com/cars/2023/04/with-tesla- profits-down-musk-dangles-cybertruck-fsd-this-year/) que ha estado recaudando como pago por el software.
A pesar de esa postura audaz en público, Tesla ha sido mucho más prudente al tratar con las autoridades: en 2020, le dijo al Departamento de Vehículos Motorizados de California [que no esperaba que FSD se volviera significativamente más capaz] (https://arstechnica.com /cars/2021/03/tesla-full-self-driving-beta-isnt-designed-for-full-self-driving/) y que nunca superaría el llamado SAE nivel 2, que requiere un ser humano alerta en el asiento del conductor que sigue siendo responsable de las acciones del coche.
O, [como lo expresó de manera más concisa el autor Ed Niedermeyer] (https://twitter.com/Tweetermeyer/status/1368678998679560193), "Full Self-Driving" no es, y nunca será, realmente auto-conducción".
Tesla está celebrando su reunión anual de accionistas más tarde hoy en Texas.