Logo Zephyrnet

Này, NTSB, đâu là bằng chứng FSD Beta của Tesla là nguy hiểm?

Ngày:

Tuần trước, có thông tin tiết lộ rằng Ủy ban An toàn Giao thông Quốc gia (NTSB) đã yêu cầu Cục Quản lý An toàn Giao thông Đường cao tốc Quốc gia (NHTSA) phá vỡ các hệ thống ADAS, cụ thể là kêu gọi Tesla về những mối nguy hiểm được cho là của chương trình FSD Beta. Bức thư (giống như nhiều lời chỉ trích Tesla FSD khác) là không có thật.

Tôi định giải quyết vấn đề này nhanh hơn, nhưng tôi cảm thấy rằng chúng tôi cần một bài sơ lược cho độc giả về một vấn đề cơ bản trong cộng đồng những người ủng hộ an toàn ô tô. Tôi gọi nó là Nhà thờ An toàn Ô tô. Có nhiều người ủng hộ sự an toàn yêu cầu chúng ta chấp nhận những điều họ nói chỉ dựa trên đức tin, trong khi thực sự không có cơ sở khoa học nào cho những điều họ nói. Khi chúng tôi nghe theo lời họ, chúng tôi đã kết thúc bằng những cái chết không cần thiết, như đã nêu chi tiết trong loạt bài.

Sản phẩm bức thư gần đây nhất được gửi từ cơ quan chính phủ này sang cơ quan chính phủ khác là một ví dụ khác về điều này. Họ đã đưa ra những ví dụ điển hình về việc xử lý không tốt việc kiểm tra xe tự động của một công ty hoạt động ở Las Vegas và những sai lầm của Uber. Ở Las Vegas, xe đưa đón tự động của Keolis Bắc Mỹ được cho là có một người phục vụ sẵn sàng kiểm soát mọi lúc và họ không thực sự có quyền truy cập vào các kiểm soát đó. Trong trường hợp của Uber, tài xế thử nghiệm thiếu chú ý của họ đã thực sự gây ra cái chết của một phụ nữ.

Tuy nhiên, khi bức thư đến Tesla, họ đã sử dụng một tiêu chuẩn rất khác:

“Tesla gần đây đã phát hành phiên bản beta của hệ thống Lái tự động Cấp độ 2, được mô tả là có khả năng tự lái hoàn toàn. Bằng cách phát hành hệ thống, Tesla đang thử nghiệm trên đường công cộng một công nghệ AV tự động hóa cao nhưng với các yêu cầu báo cáo hoặc giám sát hạn chế. Mặc dù Tesla bao gồm tuyên bố từ chối trách nhiệm rằng 'các tính năng hiện đang được kích hoạt yêu cầu sự giám sát tích cực của người lái xe và không làm cho phương tiện trở nên tự động', cách tiếp cận thực tế của NHTSA để giám sát thử nghiệm AV tiềm ẩn rủi ro cho người điều khiển phương tiện và những người tham gia giao thông khác.” (nhấn mạnh thêm)

Trong khi các công ty khác đang thử nghiệm AV bị kêu gọi vì các vụ tai nạn thực tế đã xảy ra, thì Tesla đang bị đánh giá dựa trên “rủi ro tiềm ẩn, ”và điều đó có nghĩa là NHTSA cần phải trấn áp.

Công bằng mà nói, đã có một số trường hợp tử vong và tai nạn đối với những người sử dụng Autopilot, nhưng trong mọi trường hợp, hệ thống này đều bị lạm dụng nghiêm trọng. Một số nạn nhân thậm chí còn rời khỏi ghế lái hoàn toàn, mặc dù biết rằng hệ thống này không dành cho xe tự hành.

Tuy nhiên, Tesla đã cẩn thận hơn rất nhiều với việc thử nghiệm FSD Beta của mình. Phần mềm thử nghiệm lúc đầu chỉ được phát hành cho một số người thử nghiệm có thành tích lái xe tốt, không quá 1000 người sử dụng phần mềm này. Mới đây, Elon Musk đã tiết lộ rằng một số người đã mất quyền truy cập vào bản Beta vì không chú ý.

Trên hết, công ty thậm chí còn sử dụng camera bên trong ô tô để theo dõi sự chú ý của tài xế và đây là điều mà những người ủng hộ an toàn đã thúc đẩy Tesla thực hiện.

Có lẽ điều quan trọng nhất cần xem xét là, mặc dù có nhiều lời khuyên từ Nhà thờ An toàn Ô tô (tôi thật ngu ngốc và đã tự mình làm điều này một chút), không có tai nạn nào mà chúng tôi biết khi sử dụng FSD Beta. Không có. Elon Musk không chỉ nói rằng không có bất kỳ tai nạn nào xảy ra giữa những người thử nghiệm Beta mà còn không có phương tiện truyền thông nào đưa tin về một tai nạn như vậy và bạn biết đấy, nếu có một tai nạn như vậy thì họ sẽ vượt qua tất cả.

Có một lời chỉ trích khác mà tôi đã thấy dấy lên trong vài tuần qua mà tôi muốn giải quyết trước khi tiếp tục: ý kiến ​​cho rằng Tesla không trung thực khi nói với khách hàng rằng FSD cuối cùng sẽ tự trị trong khi nói với các nhà quản lý rằng FSD Beta sẽ luôn là Cấp 2.

Lưu ý sự khác biệt ở đó: “Thử nghiệm." Tesla chưa bao giờ nói với bất kỳ ai rằng FSD Beta thực sự là một hệ thống tự lái hoàn toàn. nó là một BETA. Nó đang được thử nghiệm. Nó yêu cầu ai đó trông chừng nó, bởi vì nó là một gói phần mềm chưa hoàn chỉnh mà mọi người đều biết là chưa sẵn sàng để sử dụng. Tất nhiên bản Beta sẽ luôn là Cấp 2! Không ai ở Tesla bao giờ nói khác.

Chúng ta có thể tranh luận cả ngày về việc liệu Tesla có bao giờ đạt được chế độ Tự lái hoàn toàn hay không, nhưng đó hoàn toàn là một lập luận khác và thật không trung thực khi nhầm lẫn các tuyên bố về sản phẩm cuối cùng với các tuyên bố về phần mềm chưa hoàn thiện.

Có khôn ngoan không khi chỉ điều chỉnh dựa trên “Rủi ro tiềm tàng?”

Câu trả lời ngắn gọn: Không.

Như tôi đã chỉ ra nhiều lần trước đây, huyền thoại “An toàn là trên hết” là rác rưởi. Không bao giờ có được sự an toàn tuyệt đối và chúng ta thực sự có thể khiến bản thân trở nên kém an toàn hơn khi cố gắng đạt được sự an toàn 100%. Điều duy nhất chúng ta có thể nói chắc chắn (ít nhất là với công nghệ hiện tại) là 100% con người sẽ chết vào một thời điểm nào đó. Không ai sống sót ra ngoài. Điều đó không có nghĩa là chúng ta nên bất cẩn và không đề phòng (Tesla đang đề phòng), nhưng chúng ta không thể loại bỏ mọi rủi ro nếu không có mọi người chết đói hoặc một xã hội trì trệ, đàn áp.

An toàn đến thứ ba. Hoàn thành công việc và kiếm tiền (hoặc vui vẻ) là ưu tiên hàng đầu. Chúng tôi sẵn sàng tham gia vào các hành vi rủi ro như lái xe, đi xe đạp leo núi và thậm chí là đi bộ. Rủi ro là một phần bình thường của cuộc sống và chúng ta không nên giả vờ khác.

Khi chúng tôi giả vờ rằng chúng tôi đã loại bỏ mọi rủi ro, mọi người sẽ ngừng chịu trách nhiệm cá nhân và lẽ thường sẽ biến mất. Ngay cả khi bạn có biển báo “đi bộ” sáng trước mặt, bạn vẫn nên nhìn thật nhanh cả hai bên trước khi bước ra đường, bởi vì tuân theo quy tắc (không đi bộ khi có thông báo Không được đi bộ) có thể giúp đảm bảo an toàn, nhưng an toàn không được đảm bảo nếu chỉ tuân theo các quy tắc.

Cho dù NTSB có bao nhiêu quy tắc được NHTSA áp dụng cho thử nghiệm xe tự hành, ý thức chung sẽ luôn được yêu cầu đối với những người lái thử. Ngay cả khi mọi lái thử đều phải trải qua một lớp học, nhưng nếu lái thử bỏ hoàn toàn nhiệm vụ của họ (và nói là xem truyền hình thực tế như tài xế Uber), thì điều tồi tệ sẽ xảy ra. Không có số lượng đào tạo nào có thể ngăn ai đó làm điều gì đó ngu ngốc - đó luôn là trách nhiệm cá nhân.

Chương trình FSD Beta của Tesla đang hoạt động và bằng chứng đã có trong bánh pudding. Trình điều khiển thử nghiệm được giám sát theo một số cách sử dụng camera bên trong và những trình điều khiển không chú ý sẽ bị loại bỏ. Những người lái xe còn lại không gặp tai nạn nào khi sử dụng phần mềm, vì vậy Tesla phải làm điều gì đó đúng đắn. Xuống tay với họ bây giờ sẽ không có ý nghĩa gì.

Pháp sư nổi bật: Hình ảnh tiếp thị Autopilot của Tesla.

 



 


Đánh giá cao sự độc đáo của CleanTechnica? Xem xét trở thành một Thành viên, người hỗ trợ hoặc đại sứ của CleanTechnica - hoặc một khách hàng quen trên Patreon.

 

Bạn có mẹo cho CleanTechnica, muốn quảng cáo hoặc muốn đề xuất một vị khách cho podcast CleanTech Talk của chúng tôi? Liên hệ với chúng tôi tại đây.

Podcast mới: Dự báo doanh số bán xe điện và giá pin và kim loại EV - Phỏng vấn với Trưởng bộ phận nghiên cứu năng lượng sạch của BloombergNEF

Thanh toán PrimeXBT
Giao dịch với các Đối tác CFD chính thức của AC Milan
Nguồn: https://cleantechnica.com/2021/03/17/hey-ntsb-wheres-the-evidence-teslas-fsd-beta-is-dangerous/

tại chỗ_img

Tin tức mới nhất

tại chỗ_img