Incidentes Asociados
Conducir un coche es un proceso complejo. Un buen ejemplo es la experiencia del propietario de un Tesla Cybertruck John Challinger, un desarrollador de software de Florida, que publicó en las redes sociales a las 6:11 am del 9 de febrero de 2025:
Soooooo mi @Tesla @cybertruck chocó contra un bordillo y luego contra un poste de luz en la versión v13.2.4.
Gracias @Tesla por diseñar la mejor seguridad pasiva del mundo. Salí caminando sin un rasguño.
No logró salir de un carril que estaba terminando (no había nadie a mi izquierda) y no intentó reducir la velocidad ni girar hasta que ya había chocado contra el bordillo.
Obviamente, fue un gran error de mi parte. No cometas el mismo error que yo. Presta atención. Puede pasar. Sigo a Tesla y FSD muy de cerca y no había oído hablar de ningún accidente en V13 antes de que esto sucediera. Es fácil volverse complaciente ahora, no lo hagas.
@Tesla_AI ¿cómo me aseguro de que tienes los datos que necesitas de este incidente? El centro de servicio, etc., no ha respondido a este problema. Tengo las imágenes de la cámara del tablero. Quiero publicarlas como un anuncio de servicio público de que puede suceder, incluso en v13, pero tengo dudas porque no quiero la atención y no quiero darles a los osos/odiadores ningún material.
Difunde mi mensaje y ayuda a salvar a otros del mismo destino o mucho peor.

Crédito: Google Maps a través de PC Magazine.
Actualización: Tenga en cuenta que este artículo indicó anteriormente que la ubicación del poste de luz estaba en el medio de un carril de circulación y un lugar estúpido para colocar un poste de luz. En realidad, como han señalado los comentaristas, este no es un carril de circulación --- hay flechas claras para permanecer a la izquierda y permanecer en el carril de circulación mucho antes de esto, y este es un carril para dejar a los niños en la escuela. El poste de luz también se usa aquí de manera inteligente para que sea más seguro para los niños cruzar la calle para llegar a la escuela o irse a casa.
Para ponerlo en contexto, arriba hay una imagen del poste de luz de Google Maps publicada por PC Magazine. La gente siempre habla de "casos extremos" cuando habla de situaciones de conducción autónoma. No hay casos más espinosos que este, y aparentemente fue demasiado para que un Cybertruck que operaba con una versión reciente de conducción autónoma total lo entendiera.
Por su parte, Challinger se muestra bastante relajado con todo el asunto y se culpa a sí mismo por no prestar atención y volverse "complaciente". En una publicación anterior de enero, Challinger escribió sobre su hábito de perder el foco con el FSD habilitado: "A veces decido ir a algún lugar y enciendo el FSD de Tesla y luego me olvido de dónde decidí ir y luego comienza a convertirse en Taco Bell o lo que sea y pienso: "¿Qué diablos está haciendo?" y luego pienso: "Ah, sí, Taco Bell".
Se supone que el sistema de Tesla advierte a los conductores repetidamente si no están prestando atención. Según el manual del propietario de Tesla, el vehículo debe emitir una serie de advertencias escalonadas si el conductor no está prestando atención. También se les pedirá que coloquen las manos en el volante. Si el conductor ignora repetidamente estas indicaciones, FSD se desactiva durante el resto del viaje. "No espero que [FSD] sea infalible, pero definitivamente no tenía un poste de electricidad en mi cara mientras conducía lentamente en una carretera vacía en mi tarjeta de bingo", dijo Challinger después de la colisión.
El Cybertruck recién obtuvo la capacidad de ejecutar FSD en septiembre, nueve meses después del lanzamiento del vehículo. Dado su tamaño, forma y software únicos, requirió ajustes en el FSD utilizado por otros vehículos Tesla. El Cybertruck que se estrelló estaba ejecutando una versión relativamente reciente de FSD --- versión 13.2.4 --- que Tesla lanzó en enero. Se centró principalmente en "correcciones de errores", según No es una aplicación de Tesla, pero las notas de la versión también mencionan un sistema mejorado para "evitar colisiones". Parece que pueden necesitarse más mejoras.
Tesla y el sesgo de automatización
La parte más peligrosa de cualquier automóvil es la tuerca detrás del volante, le gustaba decir a mi viejo abuelo irlandés. A pesar de las múltiples protestas de Elon Musk, depositar demasiada confianza en los sistemas informáticos es un problema. Elon Musk no cree en ello. Cree que poner advertencias en un manual del propietario que pocos se toman el tiempo de leer es suficiente, pero los científicos tienen un nombre para ello. Lo llaman "sesgo de automatización".
Según Wikipedia, la tendencia a depender demasiado de las ayudas automatizadas se conoce como "mal uso de la automatización", que ocurre cuando un usuario no supervisa adecuadamente un sistema automatizado o cuando el sistema automatizado se utiliza cuando no debería. El sesgo de automatización está directamente relacionado con el mal uso de la automatización a través de una confianza excesiva en las capacidades del sistema. Puede dar lugar a una falta de supervisión del sistema automatizado o a un acuerdo ciego con una sugerencia de automatización, lo que puede dar lugar a errores de omisión y errores de comisión. Los errores de comisión se producen cuando los usuarios siguen una directiva automatizada sin tener en cuenta otras fuentes de información. Los errores de omisión se producen cuando los dispositivos automatizados no detectan o indican problemas y los usuarios no se dan cuenta porque no están supervisando adecuadamente el sistema.
Los errores de comisión se producen por tres razones: redirección manifiesta de la atención lejos de la ayuda automatizada, menor atención a la ayuda o desestimación activa de la información que contradice las recomendaciones de la ayuda. Los errores de omisión se producen cuando el responsable de la toma de decisiones no se da cuenta de una falla de la automatización, ya sea por baja vigilancia o exceso de confianza en el sistema. Se ha demostrado que la formación centrada en la reducción del sesgo de automatización y los problemas relacionados reduce la tasa de errores de comisión, pero no de errores de omisión.
La presencia de ayudas automáticas "disminuye la probabilidad de que los responsables de la toma de decisiones hagan el esfuerzo cognitivo de buscar otra información de diagnóstico o procesen toda la información disponible de formas cognitivamente complejas". También hace que los usuarios sean más propensos a concluir su evaluación de una situación demasiado apresuradamente después de que una ayuda automática los impulse a tomar un curso de acción específico. Los tres factores principales que conducen al sesgo de automatización son la tendencia humana a elegir el enfoque menos cognitivo para la toma de decisiones, la tendencia de los humanos a ver las ayudas automatizadas como si tuvieran una capacidad analítica superior a la suya y la tendencia de los humanos a reducir su propio esfuerzo cuando comparten tareas ya sea con otra persona o con una ayuda automatizada.
"El exceso de confianza en la tecnología es un error de proporciones asombrosas", escribe Patricia Hardré, de la Universidad de Oklahoma, en un libro sobre por qué a veces depositamos demasiada fe en las máquinas. Según la BBC, ella sostiene que las personas generalmente carecen de la capacidad de juzgar cuán confiable es una tecnología específica. En realidad, esto puede suceder en ambos sentidos. Podríamos descartar la ayuda de una computadora en situaciones en las que nos beneficiaría o confiar ciegamente en un dispositivo de este tipo, solo para que termine dañándonos a nosotros o a nuestro sustento.
¿Cuál es el punto? Simplemente esto: Tesla Full Self Driving no está funcionando como debería. No ahora, nunca lo ha hecho. Y hasta que Musk supere su negativa infantil a incorporar radar y lidar en el paquete de hardware de conducción automatizada en Tesla, nunca lo hará. Fin de la historia.