Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4760

関連インシデント

インシデント 9408 Report
Tesla Cybertruck Operating in Full Self-Driving Mode Reportedly Crashes into Pole in Nevada After Failing to Merge

Loading...
完全自動運転バージョン13のテスラ サイバートラックの事故が話題に
electrek.co · 2025

テスラのオーナーが、イーロン・マスク氏が今年中に無人運転になると主張するテスラの先進運転支援システム、完全自動運転を使用中に縁石にぶつかり、サイバートラックを柱に衝突させたと報告した。

この投稿は拡散している。

フロリダを拠点とし、クラウス・ハムダニ・エアロスペースで働くソフトウェア開発者のジョナサン・チャリンジャー氏は、X の拡散投稿 で、サイバートラックを柱に衝突させたと報告した。

彼は、常にドライバーの監視を必要とする先進運転支援 (ADAS) 機能のスイートであるテスラの完全自動運転システムを使用して運転していたと報告した。しかし、テスラは、このシステムがまもなくドライバーの監視なしで機能するようになると主張しており、それがこの名前の由来となっている。

チャリンジャー氏は、右車線で FSD v13.2.4 を使用して運転していたが、右車線が終わって左車線に合流しようとしていたが、車は合流できず縁石にぶつかったと述べた。

彼は、サイバートラックを時間内に反応して制御できなかったと述べた。

サイバートラックは、終わっていた車線から合流できず (私の左側には誰もいなかった)、縁石にぶつかるまで減速も方向転換も試みなかった。

その後、サイバートラックは街灯柱に衝突した。彼は傷一つ負わずに通り抜けることができて幸運だった。

公平に言えば、街灯柱としては奇妙な場所だったが、テスラ FSD が車線を変えなかった理由はなく、たとえ車線を変えなかったとしても、縁石か街灯柱にぶつかっていたはずだ (写真) TroyTeslike より):

チャリンジャー氏は、テスラの完全自動運転システムを使用する際は注意を怠らず、油断しないように人々に伝えるために、この話を「公共広告」として共有したと述べた。

明らかに、私の大きな失敗だ。私がしたのと同じ間違いをしないでください。注意してください。それは起こり得ることです。私はテスラと FSD をかなり綿密に追跡していますが、これが起こる前に V13 で事故が起きたという話はまったく聞いたことがありません。今、油断するのは簡単ですが、油断しないでください。

これは、CEO のイーロン マスクが「衝撃的」であり、年末までに「監視なしの自動運転」を実現するための重要なステップであると発表している、テスラの最新の FSD v13 での最初の衝突である可能性があります。

マスクと彼のテスラのインフルエンサーは、テスラがこれを達成するのにまだ何年もかかることを示すデータ証拠があるにもかかわらず、このテクノロジーは「真の自動運転になる寸前」であると主張する FSD ビデオを頻繁に共有しています (https://electrek.co/2025/02/06/elon-musk-approved-tesla-full-self-driving-dataset-doubled-whats-the-state-of-fsd-now/)。

Electrek の見解

この男は生きていて幸運で、彼の言う通りだ。人々が FSD に甘んじてしまうという問題があり、テスラ、特にイーロン・マスクは、それを防ぐために十分な対策を講じていない。

それどころか、マスクはテスラが自動運転の解決に近づいているかのように、アップデートのたびに大げさに宣伝し続け、四半期ごとの安全レポートで FSD が人間の運転よりも安全であることが証明されていると主張しているが、これは誤解を招くものだ。

トップコメントは Dean Myerson による

19 人がいいね!

以前、自動運転ではなく、車線をフルに保持する車に乗っていた。注意を怠らないようにと言われましたが、長距離運転ではそれは不可能だとわかりました。つまり、それほど注意を怠らないようにしなければならないなら、全力で運転しているのと同じことです。私は、目新しいものとして短距離運転にのみ使用しました。

すべてのコメントを表示

過去 5 年間毎年解決されるというイーロンの主張なしに、テスラが FSD を真空状態で開発し、いつ実現できるか、どのハードウェアで実現できるかについて明確な考えがないままテスラがソフトウェア パッケージを顧客に販売していたとしたら、それは称賛される製品だったでしょう。

代わりに、それはテスラの信頼性を失わせ、今日のように潜在的に危険な製品です。

私自身、車線がどこで終わるのかというチャリンジャーが説明したのとまったく同じ問題を抱えていましたが、FSD はそれを検出しません。ほとんどの場合はうまくいくので、自己満足の感情が生まれ、システムが動くチャンスが与えられるので奇妙です。今回のケースでは、明らかに行き過ぎでした。

気をつけて、イーロン・マスクが自動運転について話すときは、信じるのをやめてください。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd