Incidentes Asociados

Después de años vendiendo su actualización de software controvertida Full-Self Driving por miles de dólares, Tesla emitió hoy un retiro del mercado para cada uno de los casi 363,000 vehículos que utilizan la función. La medida fue impulsada por una agencia del gobierno de EE. UU. que dijo que el software había puesto en peligro a los conductores en "circunstancias raras" y podría aumentar el riesgo de un accidente en situaciones cotidianas.
Los retiros son comunes en la industria automotriz y en su mayoría se enfocan en partes particulares o situaciones en la carretera. El último retiro de Tesla es radical, y la Administración Nacional de Seguridad del Tráfico en las Carreteras dice que el software Full Self-Driving puede infringir las leyes de tránsito locales y actuar en una manera que el conductor no espera en una caja de sorpresas de situaciones en la carretera.
Según el [archivo] de la agencia (https://static.nhtsa.gov/odi/rcl/2023/RCLRPT-23V085-3451.PDF), estos incluyen pasarse un semáforo en amarillo a punto de ponerse rojo; no detenerse correctamente en una señal de alto; exceso de velocidad, por no detectar una señal de tráfico o porque el conductor ha configurado su automóvil a una velocidad más rápida por defecto; y hacer cambios de carril inesperados para salir de los carriles de solo giro cuando va derecho a través de una intersección. Los conductores podrán continuar usando la función mientras Tesla construye un parche de software para los defectos.
Las situaciones destacadas por el retiro parecen estar unidas por una falla de diseño que, según algunos expertos en seguridad, ha estado durante mucho tiempo en el corazón de la tecnología de asistencia al conductor de Tesla: la noción de que los conductores pueden dejar que el software maneje la conducción, pero también se espera que intervengan en un aviso de un momento cuando el software necesita ayuda.
Los humanos no funcionan de esa manera, dice Philip Koopman, quien estudia la seguridad de los autos sin conductor como profesor asociado en la Universidad Carnegie Mellon. “Ese es un problema fundamental con esta tecnología: tienes un tiempo de reacción corto para evitar estas situaciones, y las personas no son buenas en eso si están capacitadas para pensar que el automóvil hace lo correcto”, dice. El automóvil está diseñado para zumbar y emitir un pitido cuando determina que el conductor humano debe hacerse cargo.
El retiro de hoy muestra que el gobierno de EE. UU. está "metiendo el dedo del pie en el agua" cuando se trata de establecer límites más firmes no solo para la ambiciosa tecnología de Tesla, sino también para las funciones avanzadas de asistencia al conductor de todos los fabricantes de automóviles, dice Koopman. Estas características están destinadas a hacer que la conducción sea más divertida, menos tediosa y más segura, pero también requieren que los fabricantes de automóviles tomen decisiones difíciles sobre los límites de la atención humana y cómo comercializar y explicar las capacidades de su tecnología.
El enfoque de Tesla ha sido único. Dirigido por el CEO Elon Musk, ha resistido el escrutinio del gobierno, [criticó a los legisladores](https://www.cnbc.com/2022/05/17/elon-musk-blasts-joe-biden-compares-him-to-presentador .html) y, en algunos casos, desarrolló tecnología más rápido de lo que los reguladores podrían regular. “Este es un ejercicio interesante en el que la NHTSA descubre cómo usar su autoridad con Tesla”, dice Koopman.
Una declaración proporcionada por la portavoz de la NHTSA, Lucía Sánchez, dijo que la agencia detectó los problemas citados en el nuevo retiro a través de análisis relacionados con una [investigación] (https://www.nhtsa.gov/recalls?nhtsaId=EA22002) abierta en 2022. El sonda investigó por qué los vehículos que utilizan la función de piloto automático de Tesla tienen un historial de [colisiones con vehículos de primeros auxilios estacionarios] (https://www.wired.com/story/tesla-autopilot-why-crash-radar/).