毛片视频免费观看-毛片视频在线免费观看-毛片手机在线视频免费观看-毛片特级-中文亚洲字幕-中文一级片

通用無人車及傳感器剖析

2018-03-02 來源:佐思汽車研究 作者:周彥武 字號:

通用汽車在2018年1月13日發布通用無人車安全報告,并宣稱將在2019年量產基于Bolt純電動車改裝的無人車,本文根據公開資料對通用無人車做一些分析估計,可能會有錯誤的地方,僅供大家參考。

通用的無人車沒有方向盤和踏板,顯然是無法人工介入,也彰顯通用對自己無人車技術的信心。同時也顯示出傳統車企在無人車領域強大的競爭力,如果谷歌想要做類似的無人車,那么谷歌必須求助于菲亞特克萊斯勒FCA為其定做。這就是新興造車企業或IT自動駕駛企業的尷尬之處,不和傳統車企合作,它們無法拿到一款相對比較優秀的改裝平臺,算法再強大也無法落地。

新興造車企業或IT自動駕駛企業也無法得到優秀汽車廠家的支持,因為優秀汽車廠家視其為競爭對手,只會盡力打壓,不會出手援助。只有非主流的車廠,才不把新興造車企業或IT自動駕駛企業視為競爭對手,同時為了消化過剩的產能,樂于與新興造車企業或IT自動駕駛企業合作。另一個尷尬的是特斯拉,雖然只達到SAE分級中的L2,但是宣傳成L4,一時占盡風頭,然而技術力量不足。L2終究是L2,奧迪A8的L3和通用Cruise的L5(也未完全達到SAE的L5級,稱L4+更合適)無論在實際應用和宣傳上都超過了特斯拉。

Model 3遲遲未達預期,特斯拉在2017年第四季度預期交付Model 3新車2917輛,但實際只交付了1550輛,12月僅交付517輛。作為Model 3的競爭對手,通用的Bolt銷量持續攀升,7月銷量為1971輛,11月達3747輛,12月銷量達3327輛,同比大增近5倍,是Model 3的6倍。全年銷量超過23000輛,對通用來說產能完全不是問題,每月3萬輛的產能也能輕易達到。

通用這輛無人車采用5個激光雷達,21個毫米波雷達,16個攝像頭。5個激光雷達是Velodyne的VLP16 16線激光雷達。今年1月初,Velodyne下調VLP16的售價,從7999美元到3999美元,百度和福特作為Velodyne的大股東,可以賺通用的錢了。21個毫米波雷達中12個79GHz毫米波雷達由日本ALPS提供,兩個前向兩個后向長距離毫米波雷達推測由德國大陸提供,型號可能是ARS-408。5個高分辨率(通用稱之為Articulating)毫米波雷達由德國博世提供,主要是車兩側和正前方。

16個攝像頭中,車頂10個,包括一個基線長大約8厘米的雙目攝像頭,8個360度環視攝像頭,攝像頭周圍均有紅外LED,可以在低照度甚至黑夜下工作,當然分比率會下降很多。車內后視鏡位置有一個非無人駕駛版Bolt的單目攝像頭,車輛最前部位置有一個長距離單目攝像頭。車外后視鏡和車后部各兩個攝像頭。

激光雷達應用

通用的原文是We start with LiDAR, which provides highly precise feedback using laser measurements for both fixed and moving objects.激光雷達首先是定位,無人車的第一步也是定位,利用激光雷達SLAM的回環檢測或者與全局地圖做match,進而做到厘米級定位,這是業內一致的做法,百度、谷歌和通用主流廠家都是如此。而非主流廠家大多用GPS RTK定位,有兩個非常顯眼的蘑菇天線,GPS RTK定位不能做大規模應用,只能用于拉投資的demo。

上圖為百度無人車定位框架。這種定位方法的缺點是需要提前制作激光雷達地圖也就是Prior LIDAR MAP,這對通用來說不是難事。通用在其超級巡航里已經制作了美國的所有高速公路的激光地圖。但是如果沒有提前制作激光雷達地圖的區域(如人煙稀少地域廣大的郊區和農村),無人車做不到厘米級定位,只能做到傳統GPS最高3米的定位。

激光雷達的第二個作用是與攝像頭數據融合做目標分類識別和軌跡跟蹤,通用的原文是這樣子:We combine LiDAR and camera data for classifying and tracking objects, making high confidence determinations more quickly. This helps, for example, identify pedestrians, vehicle types and road details such as lane lines, construction zones and signage.推測由兩側朝下的激光雷達來獲得道路細節,如車道線,路沿,隔離帶,虛實線,斑馬線。百度無人車也是用激光雷達獲得道路細節,出身百度的景馳則在2018年CES上演示了只用激光雷達識別車道線、行人和車輛的技術。谷歌和豐田也是如此。

目前激光雷達檢測車道線主要有四種方法,一是根據激光雷達回波寬度。二是根據激光雷達反射強度信息形成的灰度圖,或者根據強度信息與高程信息配合,過濾出無效信息。三是激光雷達SLAM與高精度地圖配合,不僅檢測車道線還進行自車定位。四是利用激光雷達能夠獲取路沿高度信息或物理反射信息不同的特性,先檢測出路沿,因為道路寬度是已知,根據距離再推算出車道線位置。對于某些路沿與路面高度相差低于3厘米的道路,這種方法無法使用。后三種方法需要多線激光雷達,最少也是16線激光雷達。前者可以使用4線或單線激光雷達。目前絕大部分都是采用第二種方法。這種方法的標志就是需要激光雷達盡量貼近路面或朝向路面以取得比較多的反射強度信息,豐田、谷歌都是在車最前部保險杠處安置激光雷達,通用由于保險杠附近有9個毫米波雷達和1個攝像頭,估計是安裝空間不足,只能放在車頂。

中間正前方的激光雷達與攝像頭數據融合可以加大識別目標的速度和準確性。用激光雷達識別目標有兩種做法,一種是利用激光雷達反射強度值,不同特性的物質對激光雷達反射強度差異很大,利用這個差異可以對目標進行簡單分類,比如行人、車輛、建筑物、植物、路面、草地等。由于只是簡單的閾值濾波器,計算量很小,速度極快,遠高于深度學習的目標分類。就在2018年1月初,瑞薩宣布和初創公司Dibotics合作,Dibotics有一款增強激光雷達(Augmented LiDAR)軟件,就是采用這種方法做分類識別,瑞薩將把這套軟件嵌入進其芯片中。第二種是將激光雷達的點云轉換為具備張量結構的密集的圖像數據,然后用faster RCNN識別。后者需要強大的運算資源,處理速度比較慢。faster RCNN則是圖像識別領域公認最優秀的方法。推測通用用了前一種,而攝像頭的深度學習識別,通用應該也是用faster RCNN。

激光雷達還有一個優勢就是擅長預測移動物體的軌跡和軌跡跟蹤,這是行為決策的基礎。就像人類駕駛員,可以預估行人或其他車輛下一步的方向或位置,根據這個預估來做出決策。激光雷達天生具備軌跡場(trajectory-yielding)的能力,Velodyne的16線激光雷達在美國最隆重的超級碗賽事上能夠準確預測四分衛投球后球的移動位置(A Velodyne VLP-16 LiDAR read off each tossed football’s speed and direction to predict where the ball would land)。Velodyne對此非常自豪。所以通用也說用激光雷達tracking objects,這比攝像頭用光流法計算軌跡并預測要快得多,運算資源消耗也遠遠低于光流法。

毫米波雷達應用

在美國,如果要想使用未經FCC認證的無線設備,必須先申請臨時許可(STA),否則是違法行為。2017年3月17日,日本車用電子供貨商Alps Electric 申請了STA 許可證,Alps Electric 要測試的是名為Ukaza 的車用毫米波雷達,工作頻段為76-81 GHz。這是該頻段毫米波雷達第一次公開測試。在申請中,Alps Electric 表示,公司想從5 月1 日起陸續測試3,000 臺Ukaza。Alps表示 每輛車需要裝配10 組雷達,因此3,000 臺Ukaza 只夠300 輛車使用。10 天后,通用也向FCC 遞交了類似的STA 許可證申請,它要測試的也是Ukaza 雷達。不過,通用工程師Robert Reagan 在申請中要求FCC 幫忙保密,因為測試涉及商業敏感信息。顯然,ALPS的毫米波雷達是用在通用汽車上的,這就是通用要打造的300輛的無人駕駛測試車隊 。

Ukaza 雷達可不是Bolt 的唯一裝備,3 月28 日(通用申請后一天)博世也遞交了自己的STA 許可證申請。博世申請中表示,公司要在客戶的自動駕駛車隊測試中程雷達(77GHz),隨后透過搜集的數據開發新的算法。從申請來看,博世要測試的雷達共有650 組,夠162 輛車使用。每輛車4個,與Alps 公司類似,博世也沒有點出客戶的名字,但給了測試的具體地點,從經緯度來看,這些雷達將在舊金山、底特律和斯科茨代爾測試,唯一橫跨這三地測試的公司只有通用一家。

經過幾個月測試后,通用可能覺得還不夠,因此增加了數量,79GHz增加到12個,高分辨率(通用稱之為Articulating)毫米波雷達增加到5個。博世的雷達如果是傳統的77GHz毫米波雷達,應該無需再向FCC提出STA,推測可能是2-4GHz帶寬的雷達,也可能博世把76-81GHz雷達(也就是79GHz雷達)稱為77GHz雷達,畢竟博世不能造雷達收發器,也是79GHz雷達的可能性很高,其帶寬最高是傳統77GHz雷達的8倍,因此分辨率可達4厘米,稱之為Articulating也說得過去。

12個79GHz毫米波雷達采用級聯方式工作,這種方式足以讓毫米波雷達呈現出清晰的360度全景圖像,還可以同時跟蹤上千目標。推測12個79GHz毫米波雷達是做冗余系統,毫米波雷達應對復雜環境的能力最強,最適合做冗余系統,在激光雷達和攝像頭都失效的情況下,依然可以安全行駛到路邊停車。

NXP在2018年1月11日推出MR3003和S32R274就是典型的級聯設計方案,MR3003是一款3發4收的毫米波雷達收發器,NXP的級聯設計最低是級聯4個MR3003,達到12發16收,由S32R274做處理器,最多可支持高達20個MR3003級聯,達到驚人的60發80收毫米波雷達,足以成像。

所謂級聯,實際類似MIMO。多輸人多輸出系統(MIMO,Multiple input multiple output)原本是控制系統中的一個概念,表示一個系統有多個輸入和多個輸出.如果將移動通信系統的傳輸信道看成一個系統,則發射信號可看成移動信道(系統)的輸入信號,而接收信號可看成移動信道的輸出信號。MIMO 雷達的基本含義是 :雷達采用多個發射天線,同時發射相互正交的信號,對目標進行照射 ,然后用多個接 收天線接收目標回波信號并對其進行綜合處理,提取目標的空間位置和運動狀態等信息。

MIMO雷達虛擬陣的一個典型應用是用于雷達二維成像 ,雷達二維成像的距離分辨力主要取決于雷達信號的帶寬 ,方位分辨力主要取決于天線的波束寬度。要提高成像的距離分辨力,需要增加雷達信號的帶寬是相對比較容易的。而要提高雷達信號的方位分辨力,需要增大天線或陣列的孔徑,而這在實際中受到多方面因素的限制,有很大的難度。目前廣泛采用的解決辦法是采用合成孔徑技術,在不增加天線物理尺寸的基礎上,得到大孔徑的陣列。與合成孔徑的思想不同,MIMO 雷達是利用多發多收的天線結構等效形成虛擬的大孔徑陣列,獲得方位上的高分辨力。 而這種虛擬陣的形成是實時的,能夠避免傳統 的ISAR成像中存在的運動補償問題。 故MIMO 雷達在成像應用上有其獨特的優勢。

上圖為德州儀器測試的多片級聯雷達(MIMO)的FFT輸出圖,很明顯通道數越多,精細程度就越高。

上表為德州儀器4個AWR1243級聯后雷達的參數,遠距離分辨力大大提高,40米處可以做到1度的方位角分辨率,也就是4.5厘米的精度和大約9厘米的物體分離精度。如果是百萬像素45度FOV的攝像頭,那么40米處只有大約20像素的方位角分辨率,無法分清行人和騎行者。MIMO具備很寬的FOV,像德州儀器這種4個級聯的雷達FOV高達192度。而攝像頭的話80度的FOV 都算是廣角了,邊緣處可能有廣角失真。

一對發射陣元和接收陣元可以虛擬出一個收發陣元,則對于M發N收的MIMO雷達,發射陣元和接收陣元共有M* N對,即可以虛擬出M *N個收發陣元,其個數一般是遠遠大于N的,從而實現了陣列孔徑的擴展。

德州儀器使用4個3發4收的AWR1243雷達,就是192個虛擬通道(天線或者叫陣列)。

攝像頭應用

在自主導航局部路徑規劃方面,根據通用的描述,通用似乎是使用了自由空間(Free Space)法,這是通用與百度和谷歌最大的區別,百度和谷歌都使用柵格法。柵格法是目前應用最廣泛,可靠性最高的一種局部路徑規劃。它是由w.E.Howden在1968年提出的。柵格法將機器人工作環境分解成一系列具有二值信息的網格單元,工作空間中障礙物的位置和大小一致,并且在機器人運動過程中,障礙物的位置和大小不發生變化。用尺寸相同的柵格對機器人的二維工作空間進行劃分,柵格的大小以機器人自身的尺寸為準。若某個柵格范圍內不含任何障礙物,則稱此柵格為自由柵格;反之,稱為障礙柵格。自由空間和障礙物均可表示為柵格塊的集成。柵格的標識方法有兩種:直角坐標法和序號法。多采用四叉樹或八叉樹表示工作環境,并通過優化算法完成路徑搜索。該方法以柵格為單位記錄環境信息,柵格粒度越小,障礙物的表示越精確,但同時會占用大量的存儲空問,算法的搜索范圍將按指數增加,會大量消耗運算資源。 這種方法一般都配合64線機械旋轉激光雷達,線數越高就可以劃分粒度越小。所以會出現128線激光雷達和蘋果那種12個16線激光雷達,未來可能還有256線激光雷達。整體成本太高是柵格法主要缺點。

自由空間法采用預先定義的如廣義錐形和凸多邊形等基本形狀構造自由空間,并將自由空間表示為連通圖,通過搜索連通圖來進行路徑規劃。自由空間的構造方法是:從障礙物的一個頂點開始,依次作其它頂點的鏈接線,刪除不必要的鏈接線,使得鏈接線與障礙物邊界所圍成的每一個自由空間都是面積最大的凸多邊形:連接各鏈接線的中點形成的網絡圖即為機器人可自由運動的路線。其優點是比較靈活,起始點和目標點的改變不會造成連通圖的重構,缺點是復雜程度與障礙物的多少成正比,且有時無法獲得最短路徑。自由空間法的分割需構造想象邊界,想象邊界本身具有任意性,于是導致路徑的不確定性。

自由空間法優點是不需要使用高線激光雷達,單目即可,對運算資源消耗也小,缺點是可靠性不高,有時無法得出路徑規劃,會出現暫時的停滯,或者會繞路,最重要一點是對光線非常敏感,在陽光下的林蔭道,陽光直射攝像頭,低照度環境,雨雪霧天無法使用。通用用激光雷達彌補了部分缺點,同時在攝像頭周邊加上了紅外LED,增加對低照度環境適應能力。同時有效距離也比較近,車速通常無法高于每小時100公里。英特爾與Mobileye陣營對這種方法比較青睞。

通用車標處的攝像頭應該是主攝像頭,很有可能使用了索尼的IMX390CQV傳感器,這是一款1/2.7的CMOS感光元件,有效畫素是245萬,是目前像素最高的車載圖像傳感器,索尼在2017年10月發布的IMX324圖像傳感器性能更好,是目前全球公認性能最佳,有效距離(誤差低于5%的距離)最遠的圖像傳感器,但在2017年底才有樣品提供,相信通用暫時無緣使用。IMX324 是一款1/1.7-type的CMOS圖像傳感器,配備了742萬行業最高有效分辨率的RCCC濾鏡,在FOV 32°鏡頭的幫助下能夠拍攝距離攝像頭160米遠的路標,這是專為EyeQ4和EyeQ5開發的傳感器,價格極高。不過即便是在窄鏡頭(35度以下已經屬于窄視角,通常汽車的前視鏡頭是45度)下,有效距離也只有160米,如果是45度,有效距離是150米。而IMX390配合45度視角鏡頭,估計有效距離是65-75米。而64線激光雷達可以做到200米。不過電動車在市區的速度不高。

通用的雙目攝像頭基線距離大約8厘米,有效距離很短,估計只有10-12米,應該主要用來識別行人和騎車人。利用雙目快速識別行人和騎車人,奔馳和寶馬已經在車上大量使用,是一項比較成熟的技術。這項技術當然和深度學習無關,深度學習最大的缺點就是消耗大量運算資源,效率低下,比較慢。

這種技術稱為stixels,sticks above the ground in the image。指對圖片中地面以上的柱狀物體進行建模,顯然,圖像中的樹木,人,海報之類的物體都可謂柱狀物。

這里所謂的stixels深度信息的底部,就是地面,頂部,就是行人的頭頂可能出現的大概位置。對于圖像中的每一列而言,底部像素,頂部像素,以及未分類物體之間的距離都被估算出來。這種方法的關鍵在于,利用stereo image可以直接計算出stixel,而無需計算所有的深度信息。在進行行人檢測時,對圖像中的地面和stixel進行估計,并設置stixel的高度為1.75m,在2010年就可在CPU上可以達到135fps的速度。而深度學習能做到30fps就需要GTX1080級顯卡了。Stixels的速度至少是深度學習的20倍以上。

車頂上的8個攝像頭是一套冗余設施,即使激光雷達和毫米波雷達都失效,車輛周圍的360度全景視頻依然可以得到。車內后視鏡處的單目也是一套冗余系統,就是L2級的AEB緊急剎車系統。

計算單元和其他

和谷歌無人車一樣,通用的無人車也使用兩套計算平臺,保證一套失效,另一套可以無間斷接替其運行。計算平臺位于后備箱里,同時也有兩套供電系統,主電源通過電動車本身的電池轉換為高壓供應。注意,通用用了高壓這個詞,如果是英偉達的DRIVE PX2或其他車載專用計算平臺,那么應該是3到5.5伏的低壓,所以推測通用沒有使用英偉達的運算平臺或其他車載專用計算平臺,而是很有可能使用了工控機,通常工控機的輸入電壓是直流24伏,相對5.5伏或車內常見的12伏可以算高壓了。如果主電源失效,則啟動備份電源。備份電源將供應所有傳感器單元,執行器和運算單元。

通用無人車的首席工程師Andrew Farah透露第一代無人車的備份電源功率高達3千瓦。要知道第一代無人車只用了兩個32線激光類、不超過10個毫米波雷達,不超過5個攝像頭。但是Andrew Farah未透露最新一代無人車也就是第四代無人車后備電源的功率,不過他堅稱功率降低了,估計可能還要達到2千瓦。可以肯定這款電動車的續航要因此減少。

百度則是雙管齊下,一臺是工控機(使用的是Neousys Nuvo-6108GC,這是一款性能強大的X86 解構工業控制計算機);另一臺則是英偉達用于自動駕駛的Drive PX2。

Nuvo-6108GC是臺灣宸曜科技的工控機,采用華碩GTX 1080 GPU顯卡,英特爾雙至強E5-2658 V3 12核CPU,1TB 2.5寸7200轉SATA硬盤(節約點啊,不用固態)。

推測通用把主要精力都用在算法和傳感器上了,運算平臺沒有花費多少精力,未來肯定會用低功耗的嵌入式系統來代替,最有可能是兩片或四片瑞薩的R-CAR H3并聯使用,R-CAR H3是目前全球運算性能最強的車規級SoC。屆時成本可以大幅度降低。

通用無人車的其他部分,電池,電機和電控部分都由韓國LG供應,制動執行器是博世的第二代iBooster,ESP也是博世的,轉向系統可能是中航集團旗下的耐世特NEXTEER供應,攝像模組可能由加拿大麥格納提供。

摩根士丹利的分析師預計通用Bolt無人車的成本高達25-30萬美元,我預計可能沒有那么高,但至少也是15萬美元。顯然這不可能針對普通消費者市場。只有出租車、共享出行或網約車市場對車購置成本敏感度不高,對人工成本敏感度很高的領域才是無人車的主要市場。

綜合來看,通用無人車的技術水平仍然低于谷歌,甚至低于百度,但是通用的商業化進程會遠比谷歌和百度要快。傳統車企與IT類企業在無人車領域的技術差距是快速縮小,而傳統車企的商業化進程只要下定決心,是要比IT類企業快得多。

上圖為豐田第三代無人車,用四個固態激光雷達取代了原先車頂的64線機械旋轉激光雷達。

上圖是豐田無人車的計算單元,可以看到非常小巧,完成度極高。這是技術最先進完成度最高的無人車,遠高于谷歌。傳統汽車巨頭一旦發力無人車,IT類企業將不再具有優勢。

主題閱讀:毫米波雷達
主站蜘蛛池模板: 欧美激情在线播放第16页| 性久久久久久| 四虎影视成人精品| 亚洲免费播放| 日韩美女在线看免费观看| 欧美日韩国产精品自在自线| 一级毛片不卡| 亚洲国产精品67194成人| 一级片免费在线| 亚洲午夜精品久久久久久成年| 日韩欧美国产中文字幕| 亚洲ab| 日本三级韩国三级香港三级| 欧美一区二区在线观看免费网站| 三极片免费| 亚洲痴女| 青青久热| 天天综合网天天综合色不卡| 漂亮大学生一级毛片| 亚洲日本1区2区3区二区| 四虎国产精品免费久久麻豆| 亚洲性一级理论片在线观看| 三级网址日本| 婷婷亚洲激情| 欧美激情精品久久久久久大尺度| 亚州综合| 亚洲美女视频在线观看| 亚洲国产毛片| 色综合免费视频| 日本在线成人| 日韩不卡视频在线观看| 日本久久黄色| 色97色| 欧美日韩国产va另类| 亚洲小视频在线观看| 一级毛片大全免费播放| 色狠狠一区二区三区香蕉蜜桃| 亚洲特级黄色片| 青草青草久热精品视频99| 亚洲国产精品婷婷久久久久 | 亚州精品视频|