特斯拉FSD自動駕駛系統在評測中多次撞上假人模型

北京時間8月10日早間消息,根據本周公布的一項非監管評測結果,特斯拉的FSD自動駕駛系統在評測中多次撞上一個兒童大小的人體模型。這項測試由Green Hills Software首席執行官、知名的特斯拉批評者丹·奧多德(Dan O’Dowd)資助併發布。

特斯拉FSD撞飛假人

奧多德去年曾發起一項運動“黎明項目”,禁止他所說的不安全軟件進入安全系統。隨後,該組織一直在積極測試特斯拉的軟件。這場由奧多德資助的運動呼籲美國國會關閉特斯拉的軟件,奧多德此前還曾試圖以禁止特斯拉FSD自動駕駛系統為綱領來競選美國參議員。

本周二,該組織在最新的廣告宣傳中發布了一段視頻。在視頻中,一輛特斯拉汽車在開啟FSD功能時多次撞壞人體模型。

特斯拉FSD自動駕駛系統在評測中多次撞上假人模型

特斯拉發言人沒有對這條消息做出回應。

這段32秒的視頻展示了,在加州一條測試車道上,特斯拉汽車三次撞壞人體模型。“黎明項目”的發言人表示,這項測試在過去一個月的時間裡進行了幾十次。在撞到人體模型之前,車輛從未嘗試轉向,或者減速超過每小時25英里。但根據視頻的宣誓書,這項測試只進行了三次。

值得注意的是,這項測試並不是在美國監管機構的監督下進行,而是獨立開展的,因此沒有受到一致的測試標準的約束。

例如,在美國,美國國家公路運輸安全管理局(NHTSA)和公路安全保險研究所使用至少五種不同類型的測試方法來測試汽車的安全性能。NHTSA在2020年啟動了一個自動化的測試項目,通過崩潰報告來評估軟件。特斯拉此前一直避免向機動車輛管理部門報告事故數據,這是因為該公司的系統被歸類為L2的駕駛輔助系統,而不是類似Waymo等競爭對手的自動駕駛系統。後者需要遵守不同的事故報告標準。

在“黎明項目”進行的每一次測試中,特斯拉汽車都會以每小時40英里的速度起步,在指定的車道內行駛100碼,隨後撞上人體模型。在測試中,專業的測試司機被要求將手從方向盤上移開,只有在車輛與人體模型碰撞后才能剎車。

特斯拉則對司機表示,其駕駛輔助系統無法取代司機,因此即使該系統開啟,司機也仍然應該將手放在方向盤上,並隨時準備好接管車輛的操控。

測試司機阿特·海尼(Art Haynie)在聲明中表示,在FSD啟動之後,特斯拉Model 3“開始搖搖晃晃,好像很迷惑,放慢了一點速度,但仍然以超過每小時25英里的速度撞擊並碾壓了人體模型”。

奧多德則在聲明中說:“我們對特斯拉FSD的安全測試結果非常不安,這應該成為採取行動的呼聲。埃隆·馬斯克(Elon Musk)說,特斯拉FSD軟件‘令人驚嘆’,但事實並非如此。它對所有美國人都是致命的威脅。”

特斯拉FSD以往也曾引發過爭議。上月,加州機動車輛管理局對特斯拉提起訴訟,稱該公司在宣傳駕駛輔助系統時採取了“錯誤或誤導性”的說辭。

儘管FSD顧名思義是“全自動駕駛”,但實際上只是選裝的功能包,讓特斯拉汽車能夠自動變道,進入並離開高速公路,識別停車標誌和紅綠燈,以及自動泊車。該軟件目前仍然處於測試中,用戶可以以1.2萬美元的選裝包,或是每月199美元的包月服務等形式來購買。在使用FSD時,司機仍然需要隨時關注車輛情況。目前,這款軟件有超過10萬名付費用戶,特斯拉利用這些用戶來實時測試該軟件,同時讓系統的人工智能模型可以向有經驗的司機學習。

(0)
上一篇 2022-08-10 09:00
下一篇 2022-08-10 09:00

相关推荐