4D成像雷達“門檻升級”,點雲處理+前融合感知大戰打響

汽車毫米波雷達市場的變革,超出很多人的預期。

如今,幾乎大部分的毫米波雷達公司都在推動4D成像雷達的技術落地。從自動駕駛公司Waymo,到大陸集團、採埃孚、博世等傳統雷達廠商以及傲酷(被安霸收購)、為升科等後來者。

過去,解析度差、行人低反射率、噪聲和多徑效應,同時成本高於攝像頭,對於不同靜止物體的識別差,這些都是毫米波雷達的缺點。

大幅提高解析度是出路之一,這就是目前4D以及成像雷達的優點之一。

傳統雷達可能得到5度的低角度解析度(但垂直方向更差),但4D成像雷達可以提升至1度,有的可以達到0。5度甚至更高。

4D成像雷達“門檻升級”,點雲處理+前融合感知大戰打響

結果是,4D成像雷達產生類似鐳射雷達的“點雲”。同時,優點在於對於每個點,不僅知道X和Y,還可以直接得到距離和速度值。同時,還可以跟蹤這些資料隨著時間的變化(也可以定義為5D)。

而在過去幾十年時間裡,毫米波雷達經歷過輝煌,也有一些挫折。從最早單雷達的ACC,到後來Mobileye視覺方案的大翻盤,再到如今的多感測器融合,4D雷達成為新的焦點。

同時,AI技術的加持,也在從視覺延伸至4D雷達。透過點雲的最佳化處理,消除返回噪聲,也包括從物體輪廓中識別目標和分類。更關鍵的是,雷達的價格還在持續下滑。

一、門檻升級

近日,4D成像雷達方案商Zadar Labs, Inc.宣佈正在為基於雷達點雲的感知構建首個深度學習訓練資料集。

透過與Xilinx公司合作開發4D雷達深度學習處理器單元(DPU),加速實現基於4D雷達點雲的目標分類。

在高工智慧汽車研究院看來,隨著類似NXP、TI這樣的雷達晶片方案供應商陸續推出4D雷達晶片方案,輸出點雲資料只是入門級別。資料處理才是真正提高雷達效能所必需的。

在這一點上,無論是攝像頭還是鐳射雷達,都已經走在前面。不過,目前這兩種感測器的AI及深度學習處理技術模型,並不適合4D成像雷達。

在Zadar Labs看來,成像點雲的深度資訊和質量不僅提供了位置資訊,而且還提供了速度、信噪比和反射率等指標的最佳化。Zadar的SDIR解決方案透過額外的檢測特徵,尋求從根本上發揮4D成像雷達未被開發的潛力。

目前,Zadar的團隊正專注於目標分類的訓練資料集。然而,這僅僅是個開始。隨著資料集的細化和擴充套件,感知工程師開發基於4D雷達的新演算法將成為新的競爭門檻,同時,這意味著後續與攝像頭、鐳射雷達的“畫素級”前融合成為可能。

比如,這套解決方案可以識別人的手臂相對於身體的運動,或者識別車輛的車輪。要實現基於4D雷達點雲的目標分類,就需要一個強大的DPU。

而在此前之前,大陸集團的ARS540正是採用了賽靈思的FPGA作為主處理晶片。

在賽靈思公司看來,4D成像雷達在點雲密度增加的情況下,如何增加檢測的成功機率,減少回聲的噪音,並實現遠處訊號反射較弱物體的檢測,還需要解決多訊號的干擾問題。

4D成像雷達“門檻升級”,點雲處理+前融合感知大戰打響

看到這個機會的,還有傳統視覺晶片方案提供商安霸半導體。

今年,該公司收購了4D成像雷達初創公司傲酷(Oculii),後者的自適應軟體演算法可以在傳統雷達晶片基礎上實現高解析度、更長距離和更高的探測精度。

接下來,傲酷的4D雷達軟體可以直接部署在安霸的CVflowSoC上,甚至可以提升傳統雷達的解析度和探測精度,從而提供全天候、低成本和可擴充套件的融合感知解決方案。

“我們希望傲酷獨特的自適應雷達感知演算法,結合安霸的視覺和人工智慧處理能力,解鎖更高水平的感知精度,而不是傳統的視覺和雷達的後融合解決方案。”到目前為止,傲酷已經與超過10家客戶簽訂了軟體授權協議,並拿到了前裝量產的商業開發合同。

而在Zadar Labs看來,視覺成像雷達是可擴充套件、強大和低成本自動駕駛感知的最佳組合。“這樣的產品正是市場所需要的。”

比如,在全新一代賓士S級的DRIVE PILOT系統中,就搭載了Veoneer的雙目立體視覺和大陸集團的ARS540成像雷達,這些方案中都採用了賽靈思的計算解決方案。

今年7月,賽靈思最新發布的Vitis AI 1。4版本,在原有的AI加速解決方案基礎上,也增加了4D雷達檢測演算法模型。

二、

任何一套具備可行性以及規模化落地能力的感知方案,取決於兩個主要要素:感測器提供的資訊質量,以及處理資料的能力和算力。

在安波福公司看來,在感測器方面,以毫米波雷達為中心的解決方案提供了一種可選的路徑,尤其是4D成像雷達的加入,意味著,接下來機器學習技術也可以使用來自雷達的資料,並與其他資料進行融合。

對於L2+/L3功能,如高速公路自動駕駛和車道改變輔助,用於前向的4D成像雷達可以提供更高的角解析度資料以及高程感知能力,同時提升角雷達的近距離精準探測能力,提升高階自動泊車的感知識別。

比如,安波福推出的FLR4+,也是該公司的首款4D成像雷達,探測距離同樣超過300米,並且透過機器學習支援真正的高程目標識別,並且還著重強調了具有吸引力的價格/效能比。

在角雷達應用上,安波福也推出了SRR6+和SRR6 HD兩個型號,前者的探測距離比前一代角雷達增加了一倍,並增加了更高解析度的角度識別。後者則為代客泊車和低速自動駕駛提供最大的解析度輸出。

4D成像雷達“門檻升級”,點雲處理+前融合感知大戰打響

“雷達提供的資料,比視覺系統提供的要複雜得多;不過,前者除了提供目標的位置之外,還提供距離和速度等資訊,這是相當有價值的。”安波福相關負責人表示,同時,由於域控制器架構帶來的高算力,意味著機器學習邊緣加速成為可能。

比如,高通公司本身不生產毫米波雷達,但透過在雷達上進行深度學習,來擴大雷達的效能。例如,透過使用高通內部開發的“雷達深度神經網路”,透過使用增強的雷達獲得更高的解析度和3D掃描。

更關鍵的是,相比於視覺處理,雷達資料處理的能耗更低。一組資料顯示,一個處理6個近距離雷達資料的系統功耗約1W,而一個處理6個攝像頭資料的系統則需要10W到15W。

在實際的道路場景應用上,此前安波福公司也給出了結合機器學習能力的一系列資料。比如,針對道路上的小物體或碎片,機器學習可以將探測距離再提高50%以上,並能跟蹤200米範圍內的小物體。

同時,對於前方小物體是否可以安全行駛透過,機器學習系統也可以用安全的和不安全的物體進行訓練。此外,與經典的雷達訊號處理相比,機器學習減少了70%的漏檢,透過與其他感測的融合可以進一步改善檢測。

機器學習還可以幫助提供準確的目標檢測和跟蹤,包括目標邊界和魯棒分離,可以將位置誤差和目標航向誤差降低50%以上,這意味著該車輛能夠更好地識別停在其他車道上的車輛,以及靜止或緩慢移動的物體。

此外,隨著點雲資料的增加,噪音也會增加。比如,隧道對於傳統雷達是另一個具有挑戰性的環境。隧道牆壁是一個巨大的反射面,可能導致非常多的返回點,甚至可以超過雷達處理目標的能力。

在安波福公司看來,機器學習可以幫助車輛瞭解何時進入隧道,能夠以比經典方法更高的精度過濾掉檢測中的噪聲。同時,還可以更好地解釋隧道和其他封閉環境中的雷達回波,對扇形等目標進行分類。

同時,高密度資料點,提供了更多關於物體形狀的詳細資訊。以採埃孚為例,4D成像雷達可以從行人身上接收大約10個數據點,而不是以前只有1或2個點,使系統能夠更準確地區分人和靜態物體。

隨著資料點數量的增加和更好的分佈,該系統甚至能夠透過測量點的移動速度來定義單個肢體的運動,這意味著感測器可以看到行人的移動方向。

按照一些公司的測算,4D成像雷達可以很快1-2年內達到目前傳統雷達的成本,此外,考慮到軟硬體解耦趨勢,4D成像雷達在提供豐富點雲資料的基礎上,還可以實現OTA更新,來增加更多的功能應用。