近日,一輛特斯拉Model 3在中國臺灣省嘉義縣水上鄉(xiāng)高速路段發(fā)生了一起由自動輔助駕駛(AutoPilot)系統(tǒng)故障而導致的車禍,車輛在沒有采取任何減速或轉(zhuǎn)向避讓動作的情況下,徑直撞向了前方已經(jīng)發(fā)生側(cè)翻的貨車。后據(jù)駕駛者回憶,當時他啟用了AutoPilot功能,并將速度設置在110km/h,駕駛者本以為該功能可以偵測到障礙物并采取相應措施,但實際結(jié)果并非如此。
讓眾人感到不解的是,側(cè)翻在路面上的貨車,其橫截面積遠比正常行駛中的貨車要大。也就是說,單從感知測量的難度來看,側(cè)翻的貨車本應更容易被識別,而以AutoPilot聞名的特斯拉卻在這項實際測驗中“翻車”,這不免讓人們對自動駕駛的未來充滿擔憂。
靜止的“公路殺手”
相對靜止的物體似乎是自動駕駛和輔助駕駛在技術升級之路上的一大障礙。
2016年5月,美國佛羅里達州一位男子駕駛開啟著Autopilot系統(tǒng)的特斯拉Model S,撞上一輛正在馬路中間行駛的半掛卡車,導致駕駛員當場死亡;2018年初,在洛杉磯405高速公路上,一輛特斯拉Model S撞上了一輛停在路邊的消防車,司機告訴消防部門當時汽車正在使用AutoPilot功能;2018年,中國發(fā)生的首例“特斯拉自動駕駛”車禍致死案,車輛同樣是在開啟AutoPilot模式下撞上一輛停泊在高速路旁的道路清掃車;2019年3月,還是在美國佛羅里達州,一輛特斯拉Model 3以110km/ h的車速徑直撞向一輛正在緩慢橫穿馬路的白色拖掛卡車,駕駛員不幸罹難。
如果從結(jié)果上來看,這些都是處于AutoPilot開啟狀態(tài)的汽車無法識別被測物體而導致的意外事故。但在技術層面上,早期特斯拉產(chǎn)品的傳感器配置和如今特斯拉產(chǎn)品的傳感器配置已經(jīng)發(fā)生了質(zhì)的改變。2016年之前的Model S使用的芯片是Mobileye公司的EyeQ3芯片技術,以單攝像頭為主,輔以毫米波雷達等傳感設備;而如今Model 3使用最新的英偉達自動駕駛芯片,處理速度遠超當年芯片水平。同時,Model 3車頭安裝了一顆前置毫米波雷達,車身四周布置8顆攝像頭和12個超聲波傳感器。
無論是從硬件配置還是軟件層面,兩款產(chǎn)品已經(jīng)不能同日而語,但最新的產(chǎn)品在面對類似情況時還是“栽了跟頭”,可見,相對靜止的物體仍是自動駕駛前行道路上的一大瓶頸。
因過度信任自動駕駛輔助系統(tǒng)而引發(fā)的事故是我們最不愿看到的結(jié)果,它似乎以這種方式提醒著人們自動駕駛有多不靠譜。對于目前的自動駕駛輔助系統(tǒng),專業(yè)人士普遍表示不能完全信任。
理想汽車首席執(zhí)行官李想曾在社交平臺發(fā)表觀點稱:“目前攝像頭+毫米波雷達的組合像青蛙的眼睛,對于動態(tài)物體判斷還好,對于非標準的靜態(tài)物體幾乎無能。視覺在這個層面的進展幾乎停滯,哪怕是動態(tài),車輛以外的識別率也低于80%,千萬別真當自動駕駛來使用。”可見,即便從硬件和技術層面已經(jīng)取得很大進步,但專業(yè)人士還是建議我們把命運掌握在自己手里。
出問題的是傳感器還是算法?
其實從應用層面來看,任何一家車企在使用說明中都不曾提及駕駛者可以完全將車輛控制權移交給車輛,即便走在行業(yè)領先地位的特斯拉也只宣稱AutoPilot是一項輔助功能,車主在使用它的時候雙手不能離開方向盤,且注意力得一直放在駕駛上。
至于造成車輛事故的原因是什么,這個問題還需要有關方面進一步調(diào)查,但分析原因大致可分為兩種情況:傳感器未能檢測到物體;或傳感器檢測到了物體,但AutoPilot尚無能力解答這道“超綱題”。
傳感器未檢測到物體這種情況,或許在幾年前還解釋得通。由于此前以單目攝像頭檢測物體作為主要參考項,確實存在被外界環(huán)境干擾的可能性,而毫米波雷達僅作為輔助沒能及時發(fā)揮作用,很容易導致事故發(fā)生。但如今的特斯拉配裝了1顆毫米波雷達、8顆攝像頭以及12個超聲波雷達,如此之多的傳感器全部失效幾乎是不可能出現(xiàn)的情況,那么它的問題出在哪兒?
紐勱科技首席執(zhí)行官徐雷認為,識別不出靜止障礙物不一定是攝像頭的問題。雙目攝像頭通過測算距離,它會發(fā)現(xiàn)前方有東西;單目攝像頭的工作原理則是重建路面,它也能發(fā)現(xiàn)路面上的障礙物。所以,徐雷估計應該是算法的問題。
智能駕駛技術專家郭繼舜分析認為,視覺算法訓練數(shù)據(jù)的局限性或是致使事故發(fā)生的一個原因。據(jù)了解,攝像頭一般通過觀察來對路面上的物體進行分類,包括形狀、大小、面積等,也就是說攝像頭見得越多,學習到的模型也就越多,通過全球用戶的數(shù)據(jù)共享,使得攝像頭學習的內(nèi)容變得豐富,算法變得更精準。
“一般訓練的都是識別車輛后部、側(cè)面、頭部,工程師可能沒想過有一天需要識別貨車的箱體頂部。”郭繼舜在談論到這起事故時說,深度學習模型不能對這個物體進行分類。也就是說,算法不支持識別貨車白色箱體這樣類似于“一堵墻”的障礙物,由此造成了事故。智能駕駛行業(yè)會將以上情況稱為“Corner Case”(邊界情況),即便未來自動駕駛的數(shù)據(jù)量再大、行駛里程再長、信息處理能力再強,攝像頭也很難將世間萬物全部都識別出來,并做出正確、及時地應對。
而另一種可能則在于,大部分自然界物體的顏色都是18度灰,在戶外狀態(tài),如高速公路,其灰度則更低,也就是說顏色更淺,物體的特征更不明顯,再加上陽光的反射,很容易被攝像頭判定為自然環(huán)境的一部分,無法與“天空”或是“路面”區(qū)分開來。
兩種說法或許并不能服眾,因為即便攝像頭處于“視覺盲區(qū)”和“知識盲區(qū)”,毫米波雷達也還在工作,為何雷達也未能奏效?
清華大學蘇州汽車研究院智能網(wǎng)聯(lián)中心主任戴一凡認為,毫米波雷達一般會把靜止物體過濾掉的,因為墻,橋,交通牌等太多類似信號,否則誤報太高。圖像算法時應該沒有考慮側(cè)面車廂這種太特殊的情況。到近距離處,車輛應該是信任了雷達的檢測,但那時完全制動來不及了。不過,雖然在這起事故中,特斯拉撞到靜止障礙物,但其制動系統(tǒng)也發(fā)揮了一些作用,降低了事故傷害。“強依賴圖像的自動駕駛技術方案,都容易出現(xiàn)這類問題。這是行業(yè)的共性問題。”戴一凡說。
“毫米波雷達對金屬敏感度太高,噪聲太多,造成了虛警和鬼影太多,而視覺算法的準確度越來越高,所以現(xiàn)階段AEB 系統(tǒng)對毫米波雷達的置信度權重下降,感知結(jié)果以視覺感知為主,通過一段時間內(nèi)的置信度投票的方式獲得最終的感知輸出。這也是在這個案例中,毫米波雷達沒有及時給系統(tǒng)報警的原因。” 郭繼舜表示。
短期內(nèi)無解
從目前的技術發(fā)展來看,激光雷達似乎展現(xiàn)出比攝像頭和毫米波雷達更具優(yōu)勢的特點。由于激光頻率高,波長短,光束能量密度大,因此具備分辨率高、距離精準,受外界影響小、信噪比高等特點,是非常理想的環(huán)境傳感器。而其原理是根據(jù)激光遇到障礙后的折返時間,計算目標與自己的相對距離,這些反饋回來的輪廓信息組成所謂的“點云”并繪制出三維環(huán)境地圖,精度可達到厘米級。“多配裝激光雷達是能夠解決識別不出靜止障礙物這個難題的。”戴一凡說。
不過,應用激光雷達尚有幾方面瓶頸。首先是成本問題。企業(yè)最關注的問題便是成本,目前,由于激光雷達還處于測試階段,并未大規(guī)模量產(chǎn)使用,所以其當下面臨最大的難點便是成本高、難維護。“這幾年,激光雷達的價格雖有所降低,但降低地十分有限。激光雷達價格下降還需要依靠大規(guī)模的配裝來分攤成本。”戴一凡說。
其次,相比攝像頭,激光雷達缺失了色彩信息。如果搭配使用兩種傳感器,無疑會進一步增加成本。事實上,攝像頭和毫米波雷達由于分辨率、幀率、信息豐富程度、算法適配度、產(chǎn)品成熟成本低等多種優(yōu)勢,仍然是現(xiàn)階段智能駕駛傳感器的首選。
這也就是說,或許很長一段時間內(nèi),我們?nèi)詿o法百分百放心地將車輛控制權交給汽車。雖然“L2級別自動駕駛”、“高級駕駛輔助”等功能讓駕駛變得更加輕松,但從技術和成本的角度考量,自動駕駛技術的局限性依舊很大,駕駛者在日常行車時依然要時刻保持警惕,對生命保持敬畏。(中國汽車報網(wǎng) 張海天)