ゼファーネットのロゴ

テスラのオートパイロットユーザーに関するMITの調査では、アイパターンが強調されていますが、「注意散漫や不注意を自動的に暗示している」わけではないことに注意してください。

日付:

そこ 新しい研究 マサチューセッツ工科大学(MIT)から、オートパイロットを使用してテスラの所有者と彼らがそれとどのように相互作用するかを調べました。 「テスラオートパイロットの離脱に関する自然主義的な一瞥行動のモデル」という研究は、オートパイロットを使用するとすべてのテスラドライバーが注意を怠ることがわかったと主張する多くの見出しの源となっています。 これらの見出しは、オートパイロットを使用しているすべてのテスラ所有者が注意を怠ると考えるように導きます。

オートパイロットのオンとオフで道路に目を向ける

この研究の目的は、高速道路で使用されたときに、ドライバーが開始した、テスラのオートパイロットの重要ではない離脱の周りで観察された視線パターンをシミュレートする視覚的行動を理解することでした。 この研究では、290人が開始したオートパイロットの離脱からの視線データを分析しました。 一瞥の持続時間と遷移は、ベイジアン一般化線形混合モデルでモデル化されました。 レポートは、結果を簡単な要約で示しています。

「このモデルは、観察された視線パターンをドライバー間で複製します。 モデルのコンポーネントは、オフロードの視線がAPがアクティブでない場合よりもアクティブな場合の方が長く、周波数特性が変化したことを示しています。 運転関連のオフロード視線は、手動運転よりもAPがアクティブな場合の頻度が低く、運転に関連しないダウン/センタースタック領域への視線が最も頻繁で最長でした(視線の22%が2秒を超えました)。 路上での視線の持続時間にはほとんど違いが見られませんでした。」

報告書は、オートパイロットの離脱の前後で行動が変化すると結論付けました。

「解放される前は、ドライバーは手動運転に移行した後と比較して、路上での見た目が少なく、運転に関係のない領域に集中していました。 手動運転から解放される前のオフロード視線の割合が高いことは、前方の視線が長くなっても補償されませんでした。」

報告書はまた、これらの視線の持続時間とパターンの変化は、オートパイロットが作動しているときは、手動運転を解除した後と比較して、前方道路への視覚的注意が低いことを示唆していると結論付けました。

「この視覚的注意の変化は、メーカーが推奨する使用法を満たすために、より優れたドライバー管理システムを必要とする場合があります。

「しかし、従来の車両の安全しきい値を満たす、または超えるための自動化に関する十分な注意レベルは不明です。 ただし、オフロードを見ても、気が散ったり不注意になったりすることを自動的に意味するわけではありません。 ドライバーの行動は、運転状況だけで評価することはできないからです。」

調査結果

一言で言えば、オートパイロットはテスラの所有者が通常より長く道路から目をそらすのに十分安全であると感じさせることを研究は発見しました。 ドライバーは、車が動いている間、隣の乗客を見るのに十分安全だと感じるかもしれません。 問題は、彼らはこれを注意深く安全に行っているのかということです。 この研究は、その質問に何らかの形で答えることはありません。

オートパイロットは、テスラの所有者に、通常のドライバーが運転中に感じることのない安心感を与えているようです。これは良くも悪くもありませんが、テスラとドライバーの両方が考慮する必要があるものです。 テスラは安全第一に焦点を当てており、FSDを構築するために運転データを収集する会社はおそらくこれを認識しており、より安全なシステムを作成するためにそれを使用しています。

オートパイロットを使用するテスラ所有者の潜在的な不注意に対する解決策は、テスラが導入しているナグシステムです。 ただし、テスラはドライバーがシステムをだますためにウェイトを購入するのを止めることはできません。 また、企業がそのようなデバイスを販売するのを止めることもできません。 おそらく、これが規制が最もよく適用される場所です。そのようなハッキングを使用して見つかったドライバーに対するより強い罰金または罰則。 クルーズコントロールなどの他のシステムをだます方法についてのビデオもたくさんあるので、これは確かに解決すべきはるかに広い問題になる可能性があります。

2020年250月、アリゾナ州で、ドライバーが車をだましてハンズフリーで運転した場合にXNUMXドルの罰金を科すという新しい法案がありました。 ドライブ これについて報告し、ドライバーは何年もの間、道路に注意を向け続けることを目的としたさまざまな警告やロックアウトを無効にしようとしていると指摘しました。 しかし、法案は 委員会で死亡した そして法律に制定されなかった。

もしそれが法制化されていたら、アリゾナは道路に直接注意を払う責任をドライバーにさらに向けることに大きな一歩を踏み出したでしょう—そしてこれはそうあるべき場所です。

研究を見たいもの

オートパイロットがどのように命を救ったかについての研究を見てみたいです。 データはそこにあり、ソフトウェアが事故から彼らを救った方法についてアカウントを共有しているテスラの所有者のいくつかのビデオがあります。 CleanTechnica これらのいくつかをカバーしましたが、オートパイロットによって救われた命が毎日あるようです。

それでも、「ドライバーレステスラクラッシュ」や同様の見出しですぐに実行できる主要な販売店はどれも、オートパイロットの使用によって救われる命に関心を持っていないようです。 事故データ(オートパイロットが関与している場合と関与していない場合の事故の数)を比較し、オートパイロットがどのように命を救うかを調べる研究が役立つ可能性があります。

最終的な考え

はい、問題があります。 テスラおよびあらゆるタイプのADASの他のメーカーは、この問題に遭遇します。 問題は多面的です。 一方では、人々は簡単に気が散ります。 それで、テスラはそれに対する解決策を実装しました:ナグ。 一方、人々は利己的であり、安全機能が彼らに適用されるとは思わない。 彼らは安全機能をだまし、さらには無効にする方法を見つけます。 これはテスラのせいでも、人々が悪用する方法を見つけるテクノロジーを作成している会社のせいでもありません。 問題は、人々がそれを悪用することです。

「まあ、多分テスラはそれをするべきではありません!」

人々がそれらを悪用するので、より良いシステムを作成するべきではないと言っても助けにはなりません。 解決策は、人々がシステムを悪用するのを防止または阻止する方法を見つけることです。 ただし、規制に関与する必要があり、これはすべての州で多くの官僚的形式主義を切り抜けることを意味します。 それでも、法律に違反したり、私たちを保護するために設計されたシステムを悪用したり、過度に危険なことをしたりする人々は常に存在します。

 

CleanTechnicaの独創性を高く評価しますか? になることを検討してください CleanTechnicaメンバー、サポーター、技術者、またはアンバサダー —または後援者 Patreon.

 

 


広告


 


CleanTechnicaのヒント、宣伝したい、またはCleanTechトークポッドキャストのゲストを提案したいですか? お問い合わせ.

PlatoAi。 Web3の再考。 増幅されたデータインテリジェンス。
アクセスするには、ここをクリックしてください。

ソース:https://cleantechnica.com/2021/09/23/mit-study-on-tesla-autopilot-users-highlights-eye-patterns-but-notes-that-it-doesnt-automatically-imply-distraction-または-不注意/

スポット画像

最新のインテリジェンス

スポット画像

私たちとチャット

やあ! どんな御用でしょうか?