無人駕駛已經上路,未來將駛向何方?
由于人工智能的技術發展,很多領域開始了革命式創新,無人駕駛就是其中一個。本篇文章中作者介紹了無人駕駛的概念以及發展過程,并且通過分析無人駕駛的具體設計,預測了其未來發展趨勢。
2019年在美國景城、舊金山、鳳凰城、匹茲堡、亞利桑無人駕駛已經是人們生活的日常;
2017年7月5號百度AI開發者大會,百度創始人、董事長兼首席執行官李彥宏乘坐公司研發的無人駕駛汽車行駛在北京五環;
2019年滴滴網約自動駕駛車亮相世界人工智能大會;
可以說,無人駕駛已經上路了。
一、什么是真正的無人駕駛
什么算是無人駕駛,自動巡航算是無人駕駛嗎?
自動駕駛是指讓汽車自己擁有環境感知、路徑規劃并且自主實現車輛控制的技術,也就是用電子技術控制汽車進行的仿人駕駛。
美國汽車工程師協會(SAE)根據系統對于車輛操控任務的把控程度,將自動駕駛技術分為 L0-L5 級L0 級無自動化功能。
在新聞報道中車廠會強調他們在L2-L3輔助駕駛系統的成果;科技創業公司則會強調L4是完全不同于L2-L3的新物種。
L2-L3級自動駕駛,駕駛員必須在駕駛座上,隨時準備接管車;L4級自動駕駛——不要駕駛員,在限定環境中真正做到“無人”駕駛;而L5是指無人駕駛的最高級別,在任何場景任何天氣下,都不需要人來操控。
二、無人駕駛的起源
2001年,美國開始了阿富汗戰爭,為了應對路邊炸彈的大量傷亡,美國國會要求,在2015年,軍方三分之一車輛必須進行無人駕駛。
2003年,伊拉克戰爭爆發,無人駕駛還沒有進展。因此美國軍方開啟非常規操作思路——用無人駕駛賽車的方式,為獲勝的團隊提供100萬美元的獎金,在選址上,也選擇了與伊拉克戰爭地形相似的莫哈維沙漠。
2004年3月,第一屆DARPA挑戰賽寂寂無名,所有的團隊都慘敗而歸。走的最遠的卡內基梅隆團隊,也沒有走過全程的5%。那一年,大部分參賽者的思路是,用硬件改裝汽車。
2005年的第二屆DARPA挑戰賽,這一次,去年參賽過的團隊開始放棄主要在硬件上改裝車,絕大部分團隊都加上了激光雷達測距儀等傳感器。那一年,激光雷達的測距范圍在10米左右,而攝像頭可以看到100米。
2007年,第三屆DARPA挑戰賽叫做“城市挑戰賽”,這次比賽在美國喬治空軍基地舉行,除了沙漠路段,還增添了城市路段,挑戰升級,獎金也翻一番到200萬。這一次,激光雷達、攝像頭、雷達,所有能配備的傳感器都應用到比賽中。最終卡內基梅隆大學獲得了冠軍。
DARPA這場挑戰賽,參賽的斯坦福與卡內基梅隆大學,成為美國無人駕駛行業的黃埔軍校。
僅僅是舉辦了三屆比賽,卻對行業產生了深遠的影響。從第一次所有團隊都毫無經驗,到第二次激光雷達的加入;到第三次計算機視覺與激光雷達都成為主流的解決方案。
直到今天,無人駕駛的研發也依然在借鑒過去的思路。
三、無人駕駛首先普及的應用場景
高度自動化駕駛將會讓行車更安全,而且也有助于提升我們(乘客)的生活或工作效率。
同時,自動駕駛帶來共乘共享的機制還能讓車輛減少,都市的塞車和污染問題就能迎刃而解。
無人駕駛能夠首先商業化場景有以下三類:
1. 無人駕駛出租車
無人駕駛出租車(Robotaxi)是無人駕駛出行中最核心的商業化落地場景之一,這也是現在滴滴等公司的研究方向。
2. L2輔助駕駛+L3自動駕駛
日常出行中,高速、環路上的駕駛往往占據了駕駛員大部分的出行時間。
由于高速、環路的場景相對單一,所需要面臨的突發狀況相比于Robotaxi少很多,只需要解決從上匝道到下匝道期間汽車的自動駕駛問題即可,因而成為眾多Tier1和無人駕駛科技公司的發力方向。
3. 智能代客泊車
相信很多駕齡不短的司機都有過“開車五分鐘,停車兩小時”的可怕經歷。很多時候,面對只有零星幾個空車位的停車場,我們很容易像沒頭蒼蠅一樣碰運氣找車位。
有時候找到了空車位,但周圍的車停的東倒西歪,導致入口太窄,停進去很難不碰到周圍的車,只能放棄繼續尋找。
面對消費者找車位難、停車難、取車難的這些痛點,智能代客泊車(Automated Valet Parking,簡稱AVP)成為了一個重要應用場景。
相比于高速自動駕駛來說,低速的智能泊車系統可以不用配備成本較高傳感器,比如毫米波雷達或激光雷達。實現成本較低。
四、無人駕駛汽車的基本構造
從定義上來講,無人駕駛汽車是通過車載傳感系統感知道路環境,自動規劃行車路線并控制車輛到達預定目的地的智能汽車。
無人駕駛系統的核心可以概述為三個部分:感知、規劃和控制。
1. 感知系統
感知層主要是通過各種傳感器以及高精度地圖實現,包含車輛的定位以及對物體的識別。
車輛的定位主要是通過光雷達(LiDar)、GPS、慣性傳感器、高精度地圖等等信息進行綜合,從而得出車輛的準確位置,其定位精度甚至可達cm級別;
物體的識別主要采用光雷達以及雙目攝像頭實現;
2. 決策系統
決策層的輸入包括感知層的信息、路徑的規劃以及控制層反饋回來的信息,通過增加學習算法下發決策指令。
決策指令包含:跟車、超車、加速、剎車、減速、轉向、調頭等等;
3. 執行系統
根據決策層下發的指令,控制層對車輛實施具體的控制,其中包括:油門的控制、剎車的控制、方向盤的控制以及檔位的控制;
五、無人駕駛的傳感器
1. 攝像頭
主要用于車道線、交通標示牌、紅綠燈以及車輛、行人檢測,有檢測信息全面、價格便宜的特定,但會受到雨雪天氣和光照的影響。
由鏡頭、鏡頭模組、濾光片、CMOS/CCD、ISP、數據傳輸部分組成。
光線經過光學鏡頭和濾光片后聚焦到傳感器上,通過CMOS或CCD集成電路將光信號轉換成電信號,再經過圖像處理器(ISP)轉換成標準的RAW,RGB或YUV等格式的數字圖像信號,通過數據傳輸接口傳到計算機端。
2. 激光雷達
激光雷達是一類使用激光進行探測和測距的設備,它能夠每秒鐘向環境發送數百萬光脈沖,它的內部是一種旋轉的結構,這使得激光雷達能夠實時的建立起周圍環境的3維地圖。
激光雷達使用的技術是飛行時間法(Time of Flight)根據光線遇到障礙的折返時間計算距離。為了覆蓋一定角度范圍需要進行角度掃描,從而出現了各種掃描原理。
主要分為:同軸旋轉、棱鏡旋轉、MEMS掃描、相位式、閃爍式。激光雷達不光用于感知,也應用于高精度地圖的測繪和定位,是公認L3級以上自動駕駛必不可少的傳感器。
3. 毫米波雷達
主要用于交通車輛的檢測,檢測速度快、準確,不易受到天氣影響,對車道線交通標志等無法檢測。
毫米波雷達由芯片、天線、算法共同組成,基本原理是發射一束電磁波,觀察回波與入射波的差異來計算距離、速度等。成像精度的衡量指標為距離探測精度、角分辨率、速度差分辨率。
毫米波頻率越高,帶寬越寬,成像約精細,主要分為77GHz和24GHz兩種類型 。
4. 組合導航
GNSS板卡通過天線接收所有可見GPS衛星和RTK的信號后,進行解譯和計算得到自身的空間位置。
當車輛通過遂道或行駛在高聳的樓群間的街道時,這種信號盲區由于信號受遮擋而不能實施導航的風險,就需要融合INS的信息;
INS具有全天候、完全自主、不受外界干擾、可以提供全導航參數(位置、速度、姿態)等優點,組合之后能達到比兩個獨立運行的最好性能還要好的定位測姿性能。
六、計算機視覺的應用
無人駕駛的攝像頭會采集到圖像素材,圖像可以包含豐富的顏色信息,可以識別各種精細的類別,但是在黑暗中無法使用;激光可以在黑暗或強光中使用,但是雨天無法正常工作。
目前不存在一種傳感器可以滿足不同的使用場景,所以目前業界通常會通過傳感器融合的方式來提高準確率,也能夠彌補缺點。
由于攝像頭數據(圖片)包含豐富的顏色信息,所以對于精細的障礙物類別識別、信號燈檢測、車道線檢測、交通標志檢測等問題就需要依賴計算機視覺技術。
無人駕駛中的目標檢測與學術界中標準的目標檢測問題有一個很大的區別,就是距離。無人車在行駛時只知道前面有一個障礙物是沒有意義的,還需要知道這個障礙物的距離,也就是這個障礙物的3D坐標,這樣在做決策規劃時,才可以知道要用怎樣的行駛路線來避開這些障礙物。
為了理解點云信息,通常來說,我們對點云數據進行兩步操作:分割(Segmentation)和分類(Classification)。
其中,分割是為了將點云圖中離散的點聚類成若干個整體,而分類則是區分出這些整體屬于哪一個類別(比如說行人,車輛以及障礙物)。
分割算法可以被分類如下幾類:
- 基于邊的方法,例如梯度過濾等;
- 基于區域的方法,這類方法使用區域特征對鄰近點進行聚類,聚類的依據是使用一些指定的標準(如歐幾里得距離,表面法線等),這類方法通常是先在點云中選取若干種子點(seed points),然后使用指定的標準從這些種子點出發對鄰近點進行聚類;
- 參數方法,這類方法使用預先定義的模型去擬合點云,常見的方法包括隨機樣本一致性方法(Random Sample Consensus,RANSAC )和霍夫變換(Hough Transform,HT);
- 基于屬性的方法,首先計算每個點的屬性,然后對屬性相關聯的點進行聚類的方法;
- 基于圖的方法;
- 基于機器學習的方法;
分割技術在無人駕駛中比較主要的應用就是可行駛區域識別??尚旭倕^域可以定義成機動車行駛區域,或者當前車道區域等。
由于這種區域通常是不規則多邊形,所以分割是一種較好的解決辦法。與檢測相同的是,這里的分割同樣需要計算這個區域的三維坐標。
對于距離信息的計算有多種計算方式:
- 激光測距,原理是根據激光反射回的時間計算距離。這種方式計算出的距離是最準的,但是計算的輸出頻率依賴于激光本身的頻率,一般激光是 10Hz;
- 單目深度估計,原理是輸入是單目相機的圖片,然后用深度估計的 CNN 模型進行預測,輸出每個像素點的深度。這種方式優點是頻率可以較高,缺點是估出的深度誤差比較大。
- 結構光測距,原理是相機發出一種獨特結構的結構光,根據返回的光的偏振等特點,計算每個像素點的距離。這種方式主要缺點是結構光受自然光影響較大,所以在室外難以使用。
- 雙目測距,原理是根據兩個鏡頭看到的微小差別,根據兩個鏡頭之間的距離,計算物體的距離。這種方式缺點是計算遠處物體的距離誤差較大。
- 根據相機內參計算,原理跟小孔成像類似。圖片中的每個點可以根據相機內參轉化為空間中的一條線,所以對于固定高度的一個平面,可以求交點計算距離。通常應用時固定平面使用地面,即我們可以知道圖片中每個地面上的點的精確距離。這種計算方式在相機內參準確的情況下精度極高,但是只能針對固定高度的平面。
近年來深度學習的突破,使得基于圖像和深度學習的感知技術在環境感知中發揮了越來越重要的作用;
借助人工智能,我們已經不再局限于感知障礙物,而逐漸變成理解障礙物是什么,理解場景,甚至預測目標障礙物的行為,使得無人駕駛的安全系數更高。
總結
盡管無人駕駛起源于美國,現在國內也是如火如荼,但是中美兩國的商業化落地走了不一樣的兩條路,美國公司更重科研和通用,中國公司們則多在研究低速、場景化的無人駕駛實現路徑。
有網友發帖爆出,Model 3在行駛中開啟自動駕駛系統,如果車輛進入到立交橋的車輛陰影區。而且前面有跟車;就會出現“突然剎車”狀況。
自動駕駛工程師將這種情況稱之為“幽靈剎車”,而且出現了第一起無人駕駛“殺人”事件,但這都是無人駕駛發展的必經之路。
如果要問“無人駕駛還要多久實現?”
科學家說“50年,不,100年”;投資人認為2050年或許可以;
而谷歌早年無人駕駛項目的實際控制人是克里斯·厄姆森(Chris Urmson)在演講中說:“無人駕駛真正實現還要30年。”
你覺得多久能實現?
作者:老張,宜信集團保險事業部智能保險產品負責人,運營軍師聯盟創始人之一,《運營實戰手冊》作者之一。
本文由 @老張 原創發布于人人都是產品經理。未經許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協議。
場景
分級
結構
傳感器:攝像頭、激光雷達、毫米波雷達、導航、高精地圖&GPS
計算機視覺
場景
分級
結構
傳感器
看了,可以入個門
基于特定場景的有限度無人駕駛應用可能是一個比較好方向,避免了廣義上無人駕駛的通與博,而將無人駕駛狹義化聚焦到某個特定的場景,降低技術研發難度,實現無人駕駛的逐步落地。低速下的無人駕駛泊車就是很好的例子。
內行人看水文,外行人看特高大上
一個廚師不看菜譜,研究上兵法了
不懂兵法的廚師不是好司機