特斯拉 vs 司機:是誰在“自動”駕駛?

特斯拉最近又出了個大新聞:被美國國家公路交通安全管理局(NHTSA)要求在美國召回近5.4萬輛汽車。為啥?這又是它的完全自動駕駛(Full Self-Driving)軟件惹的禍:它有可能讓汽車在路口的停車標誌前緩慢前行,而不是完全停止。

在美國,所有司機都知道,一旦看到路口有停車標誌,不管有沒有看到其他車輛或者行人,司機都要先完全停下車,再繼續前行。所以,特斯拉自動駕駛里的這個功能妥妥地違反了不少州的法律,而且有可能會增加車禍風險。

為什麼特斯拉號稱全智能的自動駕駛,在現實里,卻這麼多bug?當這些bug造成嚴重後果,承擔責任的,是它,還是相信了特斯拉所描述的美好場景的司機?

特斯拉 vs 司機:是誰在“自動”駕駛?

司機or汽車:誰的錯?

上個月,全球第一樁涉及到特斯拉 Autopilot 的嚴重刑事起訴,浮出水面。

此案當中的事故,發生在2019年的洛杉磯郊區 Gardena.

2019年12月29日深夜,司機 Kevin Riad 駕駛一輛特斯拉 Model S,從高速公路下匝道時,以較高的速度闖了紅燈,並且撞上一輛正常行駛通過路口的本田小轎車。事故導致本田車上兩人當場死亡,Riad 和特斯拉車上另一名女性乘客受到輕傷,目前已恢復。兩輛汽車均已報廢。

事後,美國公路交通安全管理局 NHTSA 宣布派出特別調查組。在此之前,這支特別調查組已經對十多起和特斯拉 Autopilot 功能相關的車禍事件展開了調查。

去年10月,加州檢方正式對 Riad 發起了重罪指控 (felony charge),包括兩項交通肇事致人死亡 (vehicular manslaughter) 的罪名。首次開庭安排在今年2月23日。

需要明確的是,本案的被告人是當時肇事車輛的司機。

儘管 Autopilot 技術無疑在事故中扮演了關鍵的角色,並且也將在本案的審理過程中被着重提及——但該技術本身,以及特斯拉公司,並非本案的被告。

(不過,美國聯邦和各地監管部門,同時也在就 Autopilot 功能對特斯拉公司展開調查。)

圖片來源:當地電視台 KCAL-9
圖片來源:當地電視台 KCAL-9

此案也是目前全美已知的第一起涉及 Autopilot 功能,並且起訴對象為肇事駕駛員的重罪案件。這也意味着:即使司機認為汽車在“自動駕駛”,司機自己仍然是事故的責任人。

多位自動駕駛相關法律事務專家,包括南卡羅萊納州大學法學教授 Briant W. Smith,和律師 Donald Slavik 等表示,這次加州公訴 Riad 一案,是第一樁涉及相關輔助/自動駕駛功能致人死亡的嚴重刑事訴訟案件。

除此之外車禍受害者的家人也已經分別向肇事司機和特斯拉公司發起了民事訴訟。受害者 Lopez 的家人在起訴書宣稱,那輛 Model S 在事故發生時“突然加快到無法控制的速度”,並且指控肇事者 Riad 本人此前的駕駛記錄非常不幹凈,屬於“危險駕駛者”。這些民事起訴將作另案審理,和本次的加州公訴暫時無關。

自動駕駛 or 輔助駕駛?

如果你對電動車本身以及相關的技術行業有足夠多的了解,你可能會知道,被特斯拉命名為“Autopilot”的這一功能,並非真正的“自動駕駛”系統。

本質上,Autopilot 就是很多汽車都有的輔助巡航功能的“升級版”,可以實現定速巡航、跟隨車道、調整車速等操作。該功能從2019年4月之後的車型開始標配,無需額外付費;2016-2019年的車型均包含了 Autopilot 所需的硬件,需要付費才能激活。

按照行業廣泛接受的國際汽車工程師協會 (SAE International) 標準,Autopilot 處於 L2-L3 之間,並未達到公認的“自動駕駛”的水平。

比方說,SAE 標準(見下圖)對於 L3 的一個重要指標,就是在特定情況下駕駛員可以無需關注路況;而特斯拉在功能說明和教學的時候也會告知車主,即使開始了 Autopilot 功能,駕駛員也仍需要保持注意力。

特斯拉 vs 司機:是誰在“自動”駕駛?

Autopilot 還有一個 FSD 模式,可以自動進行轉換車道、根據周圍交通情況自動調整車速、變換車道、駛入駛出匝道、自動泊車、根據信號燈/停車指示牌完成操作等更多功能。

FSD 的全稱是 Full Self-Driving(完全自主駕駛),其中大部分功能均已商業化;少數功能仍處於公測階段 (Beta),但也對市售車型的消費者開放,只要付費升級 FSD,即可開啟。

特斯拉 vs 司機:是誰在“自動”駕駛?

然而,監管部門似乎並不認同特斯拉的說法和做法。

在加州公訴 Riad 一案中,NHTSA 直接發表聲明,宣稱:

1)儘管許多車輛都有輔助駕駛功能,在法律上,只有駕駛者本人才是責任主體。

2)所有的汽車,不管是否有部分自動駕駛功能,這些功能是否開啟,都要求駕駛者必須保持全程的控制。(every vehicle requires the human driver to be in control at all times.)

3)沒有任何的市售汽車能夠實現自動駕駛。(no vehicle on sale that can drive itself.)

從 NHTSA 的表態中可以我們可以明確:截至目前,對於涉及到 Autopilot 以及類似輔助駕駛功能的交通事故案件,這些功能的確是事故發生的直接誘因。然而,監管部門的思路,仍然是將肇事司機作為責任主體和懲治對象。

不過,就前述的第三條來看,考慮到特斯拉公司和其高管過去曾在許多場合嚴重誇大 Autopilot 功能的實際能力和特斯拉自動駕駛技術的先進性——NHTSA 的聲明,也直接駁斥了他們的口徑。

2016年5月7日,美國俄亥俄州,一輛開啟了 Autopilot 功能的 Model S 撞上一輛卡車。駕駛員當場死亡,Autopilot 在美國奪走了第一條生命。當時,該功能剛剛上線半年之久。

根據硅星人統計,自從該功能發布以來,全球已知確認與 Autopilot 功能相關的交通事故已經造成至少6人死亡、多人嚴重受傷。

美國國家運輸安全委員會 NTSB(一個政府屬性的民用交通事故調查機構),已經對至少28起特斯拉電動車傷亡事故展開特別調查。這些事故涉及包括 Autopilot、電池起火、剎車失靈等諸多因素。

去年,NHTSA 發布政府簡報,宣布正式就11起涉及 Autopilot 的具體事故,對特斯拉公司,以及其推出的 Autopilot、交通感知巡航系統 (TACC) 等功能的設計能力,展開更加詳盡的調查。

特斯拉 vs 司機:是誰在“自動”駕駛?

而在歐洲,特斯拉的過度宣傳問題已經受到政府重視了。比如在德國,反不正當競爭監管機構在2020年起訴了特斯拉,指責 Autopilot、FSD 的命名和宣傳行為構成了誤導公眾的行為,並且道路運行車輛開啟這些功能,違反交通安全法規。

該案中,法院判定特斯拉敗訴。從此,特斯拉被禁止在德國使用 Autopilot、FSD 之類的字眼,並且在營銷宣傳內容中也不得繼續誘導消費者相信其在“自動駕駛”方面的能力。

要酷 or 要命?

很多硅星人的讀者應該記得,在2018年,101高速的 Mountain View 路段,華人車主 Walter Huang 駕駛一輛 Model X ,在正常前進行駛中突然撞上了混凝土隔離帶,不幸殞命。

當時,車上就開啟了 Autopilot 功能,然而這輛高配 Model X 搭載的諸多強大的的傳感器,和先進的道路掃描軟件算法,都沒能及時發現前方道路收窄,導致了事故發生。

特斯拉 vs 司機:是誰在“自動”駕駛?

相關調查顯示,這位車主在生前已經幾次對自己的妻子、家人和其它 Model X 車主吐槽過 Autopilot 功能不好用。具體來說, Autopilot 已經好幾次把車往他後來喪命的那條隔離護欄上拐了。

Huang 生前在蘋果擔任工程師,然而就連他都沒能對 Autopilot 功能局限有足夠清楚的認識,就更別提那些非科技從業者,對電動車和輔助/自動駕駛技術不夠熟悉的普通車主了。

很多車主選擇特斯拉,看中的正是它的高科技屬性,給人很“酷”的感覺。而 Autopilot,又似乎是人們期待已久的自動駕駛技術,在大規模市售車型中的最早也最高調的應用。

硅星人之前的一篇文章曾經指出,現在的問題就在於:包括特斯拉在內的的一部分電動車/新造車品牌,對相關的輔助駕駛功能進行過度宣傳,誇大其能力,在用戶的心中造成錯誤的理解,間接導致事故更加頻繁的發生。

結果就是,某些壓根沒有達到自動駕駛標準的輔助駕駛技術,包裝在自動駕駛的假面之下,非但沒有讓道路交通更加安全,反而釀成了更多事故。

歐盟新車安全評鑒協會成員、英國汽車安全專家 Matthew Avery 接受當地媒體採訪時曾表示,特斯拉在 Autopilot、FSD 等功能的宣傳上極具誤導性,容易讓那些對技術不太熟悉的消費者,誤以為他們花錢升級了 Autopilot/FSD 之後,自己的汽車就獲得完全自動駕駛的能力了。

“Autopilot 導致的許多事故都是致命的。這些司機究竟是在鬧着玩,或者因為更糟糕的情況——他們真的相信 Autopilot 就是完全自動駕駛——我們無從得知。”

去年,特斯拉向一部分車輛推送了 FSD beta 9 測試版軟件,讓這部分車主給特斯拉提供路測數據。

但是一些車主很快發現,這一版本的 FSD 非常不穩定、不安全,會把月亮當成信號燈,還會時不時竄入自行車道。如果真的讓這些車上路,它們毫無疑問將會成為嚴重的道路安全隱患。

消費者權益機構《消費者報告》(Consumer Reports) 發布了調查報告,宣稱特斯拉推送的 FSD 測試軟件缺乏安全防護,對其它道路參與者帶來嚴重風險。

FSD Beta 9 將月亮誤認為信號燈 截圖來源:Jordan Nelson
FSD Beta 9 將月亮誤認為信號燈 截圖來源:Jordan Nelson

近日,一家名為 The Dawn Project 的社會公益機構,在《紐約時報》上刊登了一則整版廣告,題為“不要成為特斯拉碰撞測試假人”,指責 FSD 功能的技術可靠性、安全性非常糟糕,特斯拉麵向市售車型提供該功能,讓車主成為路測“小白鼠”的做法是在草菅人命。

“一家《財富》500強公司,銷售的數千輛汽車,運行着最糟糕的軟件,在公開道路上行駛,而我們的家人將成為這些汽車碰撞測試的假人——這不是我們想要的,”廣告寫道。

特斯拉 vs 司機:是誰在“自動”駕駛?

賣了這麼多年,特斯拉電動車的普及程度現如今已經非常高了,它的獨特感、科技感,給車主身份增添的“酷”的標籤,也不如從前了。

而我們在今天觀察到的是:Autopilot、FSD 等實際是輔助駕駛,卻被宣傳誇大為自動駕駛的功能,正在延續着特斯拉作為一個“酷”品牌的生命。

然而,讓車主對這些功能產生錯覺,進而誘發更多的交通事故、生命和財產損失——這件事,可一點都不酷。                                                

(0)
上一篇 2022-02-05 16:07
下一篇 2022-02-05 16:07

相关推荐