Tesla 'thổi phồng' độ an toàn của hệ thống lái tự động?

1 tuần trước 11
Chú thích ảnhĐại lý của Tesla ở California, Mỹ. Ảnh: THX/TTXVN

Vào tháng 10/2024, NHTSA đã mở cuộc điều tra với 2,4 triệu xe Tesla sử dụng phần mềm FSD sau bốn vụ va chạm được báo cáo, bao gồm một vụ tai nạn gây chết người trong năm 2023, xảy ra trong điều kiện như chói nắng, sương mù và bụi mù.

Theo NHTSA, các bài đăng trên mạng xã hội của Tesla có thể khiến người dùng nghĩ rằng FSD là hệ thống robotaxi, trong khi thực chất đây chỉ là hệ thống hỗ trợ lái một phần, yêu cầu sự chú ý liên tục và can thiệp kịp thời của người điều khiển phương tiện.

Tesla hiện chưa đưa ra bình luận ngay lập tức về thông tin trên. Trong khi đó, NHTSA yêu cầu Tesla cung cấp câu trả lời trong cuộc điều tra trước ngày 18/12/2024. NHTSA cũng nêu vấn đề về khả năng hệ thống hỗ trợ lái không hoạt động, đặc biệt trong các tình huống tầm nhìn hạn chế.

Tesla, trong cuộc gặp với NHTSA vào tháng 5/2024 liên quan đến các bài đăng trên mạng xã hội, cho biết sách hướng dẫn sử dụng xe và các tài liệu khác của hãng đã khẳng định xe không phải là tự hành hoàn toàn và người lái cần cảnh giác. 

Dưới áp lực từ NHTSA, hồi tháng 12/2023, Tesla đồng ý triệu hồi hơn 2 triệu xe tại Mỹ để cài đặt các biện pháp bảo vệ mới trong hệ thống hỗ trợ lái Autopilot.

Nguồn bài viết