車の運転は複雑なプロセスです。その好例が、フロリダのソフトウェア開発者でテスラ サイバートラックの所有者である ジョン チャリンジャー の体験です。彼は 2025 年 2 月 9 日午前 6 時 11 分にソーシャル メディアに投稿しました。
ということで、私の @Tesla @cybertruck が v13.2.4 で縁石に衝突し、その後街灯柱に衝突しました。
世界最高のパッシブ セーフティを設計してくれた @Tesla に感謝します。私は無傷で立ち去ることができました。
終了する車線から合流できず (左側には誰もいませんでした)、縁石にぶつかるまで減速も方向転換も試みませんでした。
もちろん、私の大きな失敗です。私と同じミスをしないでください。注意してください。起こり得ることです。私はテスラと FSD をかなり詳しくフォローしていますが、この事故が起こる前に V13 で事故が起きたという話はまったく聞いたことがありません。今さら油断しがちですが、油断しないでください。
@Tesla_AI この事故で必要なデータがあるかどうか確認するにはどうすればいいですか? サービス センターなどは、この件に関してあまり反応がありません。ダッシュカムの映像は持っています。V13 でも起こり得ることを PSA として公表したいのですが、注目を集めたくないし、弱気派や嫌悪派に材料を与えたくないので躊躇しています。
私のメッセージを広めて、同じ運命やそれよりもっとひどい運命から他の人を救ってください。

Google マップより PC Magazine 経由のクレジット。
更新: この記事には以前、街灯柱の位置が走行車線の真ん中にあり、街灯柱を設置するには愚かな場所であると書かれていました。実際、コメント投稿者が指摘しているように、これは走行車線ではありません。このずっと前から、走行車線にとどまるために左に寄るようにという明確な矢印があり、ここは学校の降車レーンです。街灯柱はここでも賢く使われており、子供たちが学校に行くため、または家に帰るために道路を横断する際の安全性を高めています。
参考までに、上の画像は、PC Magazine が投稿した Google マップからの街灯柱の画像です。自動運転の状況について議論するとき、人々は常に「エッジケース」について語ります。これほど過激なケースは他になく、どうやら最新バージョンの完全自動運転で稼働しているサイバートラックには理解しがたいものだったようだ。
一方、チャリンジャー氏はこの件についてかなり冷静で、注意を払わず「油断」してしまったことを自ら責めている。 1 月の 前の投稿 で、Challinger 氏は FSD を有効にすると集中力が失われる癖について次のように書いています。「時々どこかへ行こうと決めて Tesla FSD をオンにすると、どこに行くことにしたか忘れてしまい、Taco Bell か何かに変わり始め、一体何をしているんだ、と思ってしまいますが、そういえば Taco Bell だ、と思うのです。」
Tesla のシステムは、ドライバーが注意を払っていない場合に繰り返し警告することになっています。Tesla のオーナーズ マニュアルによると、ドライバーが注意を払っていない場合、車両は一連のエスカレートされた警告を発するはずです。ドライバーはハンドルに手を置くようにも求められます。ドライバーがこれらのプロンプトを繰り返し無視すると、残りの運転中は FSD が無効になります。「[FSD] が絶対確実だとは思っていませんが、ビンゴカードで空いている道路をゆっくり運転しているときに、電柱が目の前に来ることは絶対にありませんでした」とチャリンジャー氏は衝突後に語った。
サイバートラックが FSD を実行できるようになったのは、車両の発売から 9 か月後の 9 月 になってからである。その独特なサイズ、形状、ソフトウェアを考えると、他のテスラ車で使用されている FSD に微調整が必要だった。衝突したサイバートラックは、テスラが1月にリリースした比較的新しいバージョンのFSD(バージョン13.2.4)を実行していました。[https://www.notateslaapp.com/news/2489/tesla-included-fsd-v1261-and-v1324-in-the-same-update-what-caused-this-and-what-it-means(新しいタブで開きます)]によると、主に「バグ修正」に重点が置かれていました。テスラのアプリではありませんが、リリースノートには、「衝突回避」のための改良されたシステムについても言及されています。さらに改良が必要なようです。
テスラと自動化バイアス
自動車で最も危険な部分はハンドルを握っているドライバーだと、アイルランド人の祖父はよく言っていました。イーロン・マスクが何度も抗議しているにもかかわらず、コンピューター システムに過度の信頼と信念を置くのは問題です。イーロン・マスクは それを信じていません。彼は、ほとんどの人が時間をかけて読まない取扱説明書に警告を記載するだけで十分だと考えていますが、科学者はそれを「自 動化バイアス」と呼んでいます。
Wikipedia によると、自動化された補助装置に過度に依存する傾向は「自動化の誤用」と呼ばれ、ユーザーが自動化システムを適切に監視しなかったり、自動化システムが使用すべきでないときに使用された場合などに発生します。自動化バイアスは、システムの能力を過信して自動化を誤用することに直接関係しています。自動化システムの監視不足や自動化の提案への盲目的な同意につながり、省略エラーや実行エラーにつながる可能性があります。実行エラーは、ユーザーが他の情報源を考慮せずに自動化された指示に従うときに発生します。省略エラーは、自動化デバイスが問題を検出または表示できず、ユーザーがシステムを適切に監視していないために気付かないときに発生します。
実行エラーは、自動化された補助装置から注意をそらすこと、補助装置への注意が低下すること、補助装置の推奨に反する情報を積極的に軽視することの 3 つの理由で発生します。省略エラーは、人間の意思決定者が警戒心の低さやシステムへの過度の信頼のために自動化の失敗に気付かない場合発生します。自動化バイアスと関連する問題の軽減に焦点を当てたトレーニングは、実行エラーの率を下げることはできますが、省略エラーの率は下げないことが示されています。
自動補助装置の存在は、「意思決定者が他の診断情報を探すための認知的努力をしたり、利用可能なすべての情報を認知的に複雑な方法で処理したりする可能性を低下させる」。また、自動補助装置によって特定の行動を取るよう促された後、ユー ザーが状況の評価を性急に結論付ける可能性も高くなる。自動化バイアスにつながる主な3つの要因は、意思決定に最も認知度の低いアプローチを選択する人間の傾向、人間が自動補助装置を自分よりも優れた分析能力を持っていると見なす傾向、および人間が他の人または自動補助装置とタスクを共有するときに自分の努力を減らす傾向である。
「テクノロジーへの過度の信頼は、驚くほど大きな誤りである」と、オクラホマ大学のパトリシア・ハードレは、私たちが時々機械を過度に信頼する理由に関する本の中で書いている。 BBCによると、彼女は、人々は一般的に特定のテクノロジーがどれだけ信頼できるかを判断する能力が欠けていると主張しています。これは実際には双方向に起こり得ます。コンピューターの助けが私たちにとって有益である状況でそれを無視したり、そのようなデバイスを盲目的に信頼して、結局私たちや私たちの生活に害を及ぼすことになるかもしれません。
要点は何でしょうか?単純に言えば、テスラの完全自動運転は期待通りに機能していません。今も、これまでも。そして、テスラの自動運転ハードウェア パッケージにレーダーとライダーを組み込むことに対するマスク氏の幼稚な拒否感を克服しない限り、それは決して実現しないだろう。これで終わりだ。