Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4766

Incidents associés

Incident 9408 Rapports
Tesla Cybertruck Operating in Full Self-Driving Mode Reportedly Crashes into Pole in Nevada After Failing to Merge

Loading...
Un Cybertruck en pilotage automatique a percuté un lampadaire et la vidéo est devenue virale
autoblog.com · 2025

Un homme de Floride a récemment partagé une image sur les réseaux sociaux montrant son Cybertruck en collision avec un lampadaire. L'image est une source d'inspiration pour les détracteurs du Cybertruck, mais il y a une préoccupation plus profonde : le véhicule s'est fait cela tout seul.

Le conducteur a utilisé le mode de conduite autonome de Tesla, qui gère les fonctionnalités de base du véhicule, comme la direction et le freinage. Malheureusement, le conducteur n'a pas fait attention, et le reste appartient à l'histoire.

Que s'est-il passé ? --------------

Le Cybertruck, aujourd'hui détruit, roulait sur une route vide, selon Jonathan Challinger, le développeur de logiciels de Floride. L'image qu'il a partagée sur les réseaux sociaux suggère qu'il conduisait de nuit, peut-être très tard.

Challinger dit que son Cybertruck « n'a pas réussi à sortir d'une voie qui se terminait et n'a fait aucune tentative pour ralentir ». Les détectives ont découvert où l'accident s'est produit, et le poteau semble être dans un endroit gênant sur un trottoir qui s'avance dans la route près d'un passage pour piétons. La voie comporte des flèches indiquant qu'elle se terminera bien avant le poteau et le trottoir, mais nous imaginons que même les humains attentifs ont parfois du mal à sortir de la voie avant d'être obligés de s'arrêter pour éviter de heurter le poteau.

« Je ne m'attends pas à ce que [FSD] soit infaillible, mais je n'avais certainement pas de poteau électrique devant moi alors que je conduisais lentement sur une route vide sur ma carte de bingo », a-t-il ajouté.

Challinger dit que son Cybertruck était sur la version 13.2.4 de la FSD (Full Self-Driving).

Qui est à blâmer ?

Challinger admet qu'il a été « complaisant » lors de l'accident, et ce n'est pas la première fois qu'il laisse la fonction Autopilot de Tesla prendre le volant. Dans un message publié sur les réseaux sociaux en janvier, Challinger se dit, « Parfois, je décide d'aller quelque part et d'activer la fonction Tesla FSD, puis j'oublie où j'ai décidé d'aller, puis ça commence à se transformer en Taco Bell ou autre, et je me dis qu'est-ce qu'il fait et puis je me dis oh oui Taco Bell. »

Il admet que l'accident a été un « gros échec » et accepte son rôle en permettant à l'Autopilot d'agir de manière autonome et sans surveillance.

Lorsque la version 13 de FSD a été lancée, le PDG de Tesla, Elon Musk, a déclaré qu'elle était « époustouflante » et a promis qu'elle constituerait un grand pas vers la conduite autonome sans surveillance avant la fin de 2025. Cela a poussé de nombreuses personnes qui souhaitent être à la pointe de la technologie de conduite autonome sans surveillance à prendre des risques inutiles.

Dernières réflexions

Dans un sens comique, cette histoire a tout pour plaire : un homme de Floride, un technicien avec un Cybertruck, une mauvaise planification urbaine, la conduite autonome et des acclamations de Taco Bell. C'est de l'or.

En tant qu'êtres humains compatissants, nous sommes heureux que Challinger s'en soit sorti indemne. Son accident a été grave, conduite autonome ou non, et il a de la chance d'être en vie.

Cet incident se résume à une chose : le conducteur ne fait pas attention.

Il est important de noter que même si Musk et les influenceurs de Tesla vantent la conduite entièrement autonome des véhicules Tesla, la promesse d'une FSD sans surveillance n'a pas été réalisée. Les conducteurs doivent être attentifs, même si le véhicule gère tout ce qu'ils ne veulent pas faire, comme la navigation, la direction, l'accélération et le freinage.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd