Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4760

Incidentes Asociados

Incidente 9408 Reportes
Tesla Cybertruck Operating in Full Self-Driving Mode Reportedly Crashes into Pole in Nevada After Failing to Merge

Loading...
El accidente del Cybertruck de Tesla en Full Self-Driving v13 se vuelve viral
electrek.co · 2025

Un propietario de Tesla informó que estrelló su Cybertruck contra un poste después de chocar contra un bordillo mientras usaba Full Self-Driving, el sistema avanzado de asistencia al conductor de Tesla que, según Elon Musk, no necesitará supervisión este año.

La publicación se está volviendo viral.

Jonathan Challinger, un desarrollador de software con sede en Florida que trabaja para Kraus Hamdani Aerospace, informó en una publicación viral en X que estrelló su Cybertruck contra un poste.

Informó que estaba conduciendo usando el sistema Full Self-Driving de Tesla, un conjunto de funciones avanzadas de asistencia al conductor (ADAS) que requieren la supervisión del conductor en todo momento. Sin embargo, Tesla afirma que pronto funcionará sin la supervisión del conductor, de ahí el nombre.

Challinger dijo que estaba conduciendo con FSD v13.2.4 en el carril derecho, que estaba terminando y se unía al carril izquierdo, pero el auto no logró incorporarse y chocó contra la acera.

Dijo que no reaccionó a tiempo y no tomó el control del Cybertruck:

No logró salir de un carril que estaba terminando (no había nadie a mi izquierda) y no hizo ningún intento de reducir la velocidad o girar hasta que ya había golpeado la acera.

El Cybertruck luego se estrelló contra un poste de luz. Tuvo suerte de caminar sin un rasguño.

Para ser justos, era una ubicación extraña para un poste, pero no hay ninguna razón por la que el FSD de Tesla no debería haberse cambiado de carril e incluso si no hubiera cambiado de carril, debería haber golpeado la acera o el poste (imágenes vía TroyTeslike):

Challinger dijo que compartió la historia como un "anuncio de servicio público" para decirle a la gente que permanezca atenta cuando use el sistema de conducción autónoma completa de Tesla y que no se vuelva complaciente:

Gran error de mi parte, obviamente. No cometas el mismo error que yo. Presta atención. Puede pasar. Sigo a Tesla y al FSD muy de cerca y no había oído hablar de ningún accidente en el V13 antes de que esto sucediera. Es fácil volverse complaciente ahora, no lo hagas.

Podría ser el primer accidente en el último FSD v13 de Tesla, que el director ejecutivo Elon Musk ha presentado como "alucinante" y un paso importante hacia el logro de la "conducción autónoma sin supervisión" para finales de año.

Musk y sus influenciadores de Tesla a menudo comparten videos de FSD en los que afirman que la tecnología está "al borde de convertirse en una verdadera conducción autónoma", a pesar de la evidencia de los datos que apuntan a que Tesla todavía está a años de lograrlo.

La opinión de Electrek

Este tipo tiene suerte de estar vivo y tiene razón. Hay un problema con la gente que se está volviendo complaciente con el FSD, y Tesla, y especialmente Elon Musk, no están haciendo lo suficiente para evitar que eso suceda.

Por el contrario, Musk sigue promocionando cada actualización, como si Tesla estuviera a punto de resolver la conducción autónoma, y afirma que su informe de seguridad trimestral demuestra que el FSD es más seguro que la conducción humana, lo cual es engañoso.

Comentario principal de Dean Myerson

 Me gusta a 19 personas

Anteriormente tenía un auto con mantenimiento de carril completo, no con conducción autónoma. Dijeron que mantuviera la atención, pero en viajes largos descubrí que eso era imposible. Quiero decir, si tienes que estar tan atento, es mejor que conduzcas a toda velocidad. Solo lo usé para viajes cortos, como una novedad.

Ver todos los comentarios

Si Tesla estuviera desarrollando FSD en el vacío sin las afirmaciones de Elon de que se resolvería cada año durante los últimos 5 años y Tesla vendiera el paquete de software a los clientes sin una idea clara de cuándo se puede lograr o en qué hardware, sería un producto celebrado.

En cambio, es un producto que está haciendo que Tesla pierda credibilidad y es potencialmente peligroso, como vemos hoy.

Yo mismo tuve exactamente el mismo problema que Challinger describió donde termina un carril, pero FSD no lo detecta. Es extraño porque funciona la mayor parte del tiempo, por lo que puedes tener este sentimiento de complacencia y darle al sistema una oportunidad de moverse. En este caso, evidentemente se ha ido demasiado lejos.

Tengan cuidado y dejen de creer a Elon Musk cuando habla de conducción autónoma.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd