Incidents associés
Un homme de Floride a récemment partagé une image sur les réseaux sociaux montrant son Cybertruck en collision avec un lampadaire. L'image est une source d'inspiration pour les détracteurs du Cybertruck, mais il y a une préoccupation plus profonde : le véhicule s'est fait cela tout seul.
Le conducteur a utilisé le mode de conduite autonome de Tesla, qui gère les fonctionnalités de base du véhicule, comme la direction et le freinage. Malheureusement, le conducteur n'a pas fait attention, et le reste appartient à l'histoire.
Que s'est-il passé ? --------------
Le Cybertruck, aujourd'hui détruit, roulait sur une route vide, selon Jonathan Challinger, le développeur de logiciels de Floride. L'image qu'il a partagée sur les réseaux sociaux suggère qu'il conduisait de nuit, peut-être très tard.
Challinger dit que son Cybertruck « n'a pas réussi à sortir d'une voie qui se terminait et n'a fait aucune tentative pour ralentir ». Les détectives ont découvert où l'accident s'est produit, et le poteau semble être dans un endroit gênant sur un trottoir qui s'avance dans la route près d'un passage pour piétons. La voie comporte des flèches indiquant qu'elle se terminera bien avant le poteau et le trottoir, mais nous imaginons que même les humains attentifs ont parfois du mal à sortir de la voie avant d'être obligés de s'arrêter pour éviter de heurter le poteau.
« Je ne m'attends pas à ce que [FSD] soit infaillible, mais je n'avais certainement pas de poteau électrique devant moi alors que je conduisais lentement sur une route vide sur ma carte de bingo », a-t-il ajouté.
Challinger dit que son Cybertruck était sur la version 13.2.4 de la FSD (Full Self-Driving).
Qui est à blâmer ?
Challinger admet qu'il a été « complaisant » lors de l'accident, et ce n'est pas la première fois qu'il laisse la fonction Autopilot de Tesla prendre le volant. Dans un message publié sur les réseaux sociaux en janvier, Challinger se dit, « Parfois, je décide d'aller quelque part et d'activer la fonction Tesla FSD, puis j'oublie où j'ai décidé d'aller, puis ça commence à se transformer en Taco Bell ou autre, et je me dis qu'est-ce qu'il fait et puis je me dis oh oui Taco Bell. »
Il admet que l'accident a été un « gros échec » et accepte son rôle en permettant à l'Autopilot d'agir de manière autonome et sans surveillance.
Lorsque la version 13 de FSD a été lancée, le PDG de Tesla, Elon Musk, a déclaré qu'elle était « époustouflante » et a promis qu'elle constituerait un grand pas vers la conduite autonome sans surveillance avant la fin de 2025. Cela a poussé de nombreuses personnes qui souhaitent être à la pointe de la technologie de conduite autonome sans surveillance à prendre des risques inutiles.
Dernières réflexions
Dans un sens comique, cette histoire a tout pour plaire : un homme de Floride, un technicien avec un Cybertruck, une mauvaise planification urbaine, la conduite autonome et des acclamations de Taco Bell. C'est de l'or.
En tant qu'êtres humains compatissants, nous sommes heureux que Challinger s'en soit sorti indemne. Son accident a été grave, conduite autonome ou non, et il a de la chance d'être en vie.
Cet incident se résume à une chose : le conducteur ne fait pas attention.
Il est important de noter que même si Musk et les influenceurs de Tesla vantent la conduite entièrement autonome des véhicules Tesla, la promesse d'une FSD sans surveillance n'a pas été réalisée. Les conducteurs doivent être attentifs, même si le véhicule gère tout ce qu'ils ne veulent pas faire, comme la navigation, la direction, l'accélération et le freinage.