Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4766

Incidentes Asociados

Incidente 9408 Reportes
Tesla Cybertruck Operating in Full Self-Driving Mode Reportedly Crashes into Pole in Nevada After Failing to Merge

Loading...
Un Cybertruck en piloto automático se estrelló contra un poste de luz y se volvió viral
autoblog.com · 2025

Un hombre de Florida recientemente compartió una imagen en las redes sociales que muestra su Cybertruck chocando de frente contra un poste de luz. La imagen es un motivo de preocupación para los detractores de Cybertruck, pero hay una preocupación más profunda: el vehículo se hizo esto a sí mismo.

El conductor usó el modo de conducción autónoma de Tesla, que maneja las funciones básicas del vehículo, como la dirección y el frenado. Desafortunadamente, el conductor no estaba prestando atención y el resto es historia.

¿Qué pasó?

El Cybertruck, ahora destrozado, circulaba por una carretera vacía, según Jonathan Challinger, el desarrollador de software de Florida. La imagen que compartió en las redes sociales sugiere que conducía de noche, posiblemente muy tarde.

Challinger dice que su Cybertruck "no se incorporó a un carril que estaba terminando y no hizo ningún intento de reducir la velocidad". Los detectives han descubierto dónde se produjo el choque y el poste parece estar en un lugar incómodo en un bordillo que sobresale de la carretera cerca de un cruce de peatones. El carril tiene flechas que indican que terminará mucho antes del poste y el bordillo, pero imaginamos que incluso los humanos que prestan atención a veces tienen problemas para salir del carril antes de verse obligados a detenerse para evitar chocar contra el poste.

"No espero que [FSD] sea infalible, pero definitivamente no tenía un poste de electricidad en la cara mientras conducía lentamente en una carretera vacía en mi tarjeta de bingo", agregó.

Challinger dice que su Cybertruck estaba en la versión 13.2.4 de FSD (conducción autónoma total).

¿Quién tiene la culpa?

Challinger admite que se mostró "complaciente" en el accidente, y no parece ser la primera vez que permite que la función de piloto automático de Tesla tome el control. En una publicación en las redes sociales de enero, Challinger reflexiona, "A veces decido ir a algún lugar y enciendo el FSD de Tesla, y luego me olvido de dónde decidí ir, y luego comienza a convertirse en Taco Bell o lo que sea, y pienso: "¿Qué diablos está haciendo?" y luego pienso: "Ah, sí, Taco Bell".

Admite que el accidente fue un "gran fracaso" y acepta su papel al permitir que el piloto automático actúe de forma autónoma y sin supervisión.

Cuando se lanzó la versión 13 de FSD, el director ejecutivo de Tesla, Elon Musk, dijo que era "alucinante" y prometió que sería un gran paso hacia la conducción autónoma sin supervisión antes de finales de 2025. Esto ha provocado que muchos de los que quieren estar a la vanguardia de la tecnología de conducción autónoma sin supervisión corran riesgos innecesarios.

Reflexiones finales

En un sentido cómico, esta historia lo tiene todo: un hombre de Florida, un técnico con un Cybertruck, mala planificación urbana, conducción autónoma y referencias a Taco Bell. Es oro.

Como seres humanos compasivos, estamos felices de que Challinger haya escapado ileso. El suyo fue un accidente grave, con conducción autónoma o no, y tiene suerte de estar vivo.

Este incidente se resume en una cosa: el conductor no prestó atención.

Es importante señalar que, si bien Musk y los influencers de Tesla promocionan la conducción autónoma total para los vehículos Tesla, la promesa de FSD sin supervisión no se ha hecho realidad. Los conductores deben prestar atención, incluso si el vehículo se encarga de todo lo que ellos no quieren hacer, como navegar, dirigir, acelerar y frenar.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd