電機(jī)控制器 | 叉車控制器 | 電動(dòng)車配件 | 其他              

沒有視覺傳感器還談什么無人駕駛?

2018-04-02

為了能讓無人車能像人一樣,遇到障礙物或紅燈就減速,直到停止;遇到綠燈或前方無障礙物的情況,進(jìn)行加速等操作。這就需要車載傳感器去周圍的環(huán)境進(jìn)行感知。

應(yīng)用于無人車上的傳感器目前有四大類,分別是攝像機(jī),激光雷達(dá)、毫米波雷達(dá)和超聲波雷達(dá)。不同的傳感器根據(jù)其傳感特性,布置在車身的不同位置。

今天我以百度Apollo 2.0開放的攝像頭及其模塊作為引子,對無人車上的攝像機(jī)進(jìn)行詳細(xì)介紹。

下圖就是百度Apollo 2.0推薦使用的攝像機(jī)LI-USB30-AR023ZWDR。Apollo 2.0中使用了兩個(gè)同樣的攝像機(jī),通過USB3.0的轉(zhuǎn)接線接入控制器,傳遞彩色圖像信息。兩個(gè)攝像機(jī)的鏡頭的焦距分別是6mm和25mm,分別用于檢測近處和遠(yuǎn)處的紅綠燈。image1.png

攝像機(jī)的分類

攝像機(jī)根據(jù)鏡頭和布置方式的不同主要有以下四種:單目攝像機(jī)、雙目攝像機(jī)、三目攝像機(jī)和環(huán)視攝像機(jī)。

單目攝像機(jī)

image2.png

單目攝像機(jī)模組只包含一個(gè)攝像機(jī)和一個(gè)鏡頭。

由于很多圖像算法的研究都是基于單目攝像機(jī)開發(fā)的,因此相對于其他類別的攝像機(jī),單目攝像機(jī)的算法成熟度更高。

但是單目有著兩個(gè)先天的缺陷。

一是它的視野完全取決于鏡頭。

焦距短的鏡頭,視野廣,但缺失遠(yuǎn)處的信息。反之亦然。因此單目攝像機(jī)一般選用適中焦距的鏡頭。

二是單目測距的精度較低。

攝像機(jī)的成像圖是透視圖,即越遠(yuǎn)的物體成像越小。近處的物體,需要用幾百甚至上千個(gè)像素點(diǎn)描述;而處于遠(yuǎn)處的同一物體,可能只需要幾個(gè)像素點(diǎn)即可描述出來。這種特性會(huì)導(dǎo)致,越遠(yuǎn)的地方,一個(gè)像素點(diǎn)代表的距離越大,因此對單目來說物體越遠(yuǎn),測距的精度越低。

雙目攝像機(jī)

image3.png

由于單目測距存在缺陷,雙目攝像機(jī)應(yīng)運(yùn)而生。相近的兩個(gè)攝像機(jī)拍攝物體時(shí),會(huì)得到同一物體在攝像機(jī)的成像平面的像素偏移量。有了像素偏移量、相機(jī)焦距和兩個(gè)攝像機(jī)的實(shí)際距離這些信息,根據(jù)數(shù)學(xué)換算即可得到物體的距離。原理圖下圖。

image4.jpeg

根據(jù)雙目測距原理應(yīng)用在圖像上每一個(gè)像素點(diǎn)時(shí),即可得到圖像的深度信息,如下圖。

image5.png

深度信息的加入,不僅能便于障礙物的分類,更能提高高精度地圖定位匹配的精度。

雖然雙目能得到較高精度的測距結(jié)果和提供圖像分割的能力,但是它與單目一樣,鏡頭的視野完全依賴于鏡頭。而且雙目測距原理對兩個(gè)鏡頭的安裝位置和距離要求較多,這就會(huì)給相機(jī)的標(biāo)定帶來麻煩。

三目攝像機(jī)

由于單目和雙目都存在某些缺陷,因此廣泛應(yīng)用于無人駕駛的攝像機(jī)方案為三目攝像機(jī)。三目攝像機(jī)其實(shí)就是三個(gè)不同焦距單目攝像機(jī)的組合。下圖為特斯拉 AutoPilot 2.0安裝在擋風(fēng)玻璃下方的三目攝像機(jī)。

image6.png

根據(jù)焦距不同,每個(gè)攝像機(jī)所感知的范圍也不盡相同。

如下圖,可以看出三個(gè)攝像頭的感知范圍由遠(yuǎn)及近,分別為前視窄視野攝像頭(遠(yuǎn)感知250米)、前視主視野攝像頭(遠(yuǎn)感知150米)及前視寬視野攝像頭(遠(yuǎn)感知60米)。

image7.png

對攝像機(jī)來說,感知的范圍要么損失視野,要么損失距離。三目攝像機(jī)能較好地彌補(bǔ)感知范圍的問題。因此在業(yè)界被廣泛應(yīng)用。

那么測距精度的問題怎么辦?

正是由于三目攝像機(jī)每個(gè)相機(jī)的視野不同,因此近處的測距交給寬視野攝像頭,中距離的測距交給主視野攝像頭,更遠(yuǎn)的測距交給窄視野攝像頭。這樣一來每個(gè)攝像機(jī)都能發(fā)揮其大優(yōu)勢。

三目的缺點(diǎn)是需要同時(shí)標(biāo)定三個(gè)攝像機(jī),因而工作量更大一些。其次軟件部分需要關(guān)聯(lián)三個(gè)攝像機(jī)的數(shù)據(jù),對算法要求也很高。

環(huán)視攝像機(jī)

之前提到的三款攝像機(jī)它們所用的鏡頭都是非魚眼的,環(huán)視攝像機(jī)的鏡頭是魚眼鏡頭,而且安裝位置是朝向地面的。某些高配車型上會(huì)有“360°全景顯示”功能,所用到的就是環(huán)視攝像機(jī)。

安裝于車輛前方、車輛左右后視鏡下和車輛后方的四個(gè)魚眼鏡頭采集圖像,采集到的圖像與下圖類似。魚眼攝像機(jī)為了獲取足夠大的視野,代價(jià)是圖像的畸變嚴(yán)重。

image8.jpeg

通過標(biāo)定值,進(jìn)行圖像的投影變換,可將圖像還原成俯視圖的樣子。之后對四個(gè)方向的圖像進(jìn)行拼接,再在四幅圖像的中間放上一張車的俯視圖,即可實(shí)現(xiàn)從車頂往下看的效果。如下圖。

image9.jpeg

環(huán)視攝像機(jī)的感知范圍并不大,主要用于車身5~10米內(nèi)的障礙物檢測、自主泊車時(shí)的庫位線識別等。

攝像機(jī)的功能

攝像機(jī)在無人車上的應(yīng)用,主要有兩大類功能。分別是感知能力,其次是定位能力。

感知能力

無人駕駛領(lǐng)域,攝像機(jī)的主要功能是實(shí)現(xiàn)各種環(huán)境信息的感知。接下來我會(huì)以Mobileye(一家國際上公認(rèn)做視覺牛的公司)為例介紹攝像機(jī)能夠?qū)崿F(xiàn)的功能。先看兩張圖,視頻可以參看該網(wǎng)址:https://www.bilibili.com/video/av15816802。

可以看出攝像機(jī)可以提供的感知能力有:

①車道線(lane)

圖中的深綠色線。車道線是攝像機(jī)能夠感知的基本的信息,擁有車道線檢測功能即可實(shí)現(xiàn)高速公路的車道保持功能。

②障礙物(Obstacle)

圖中使用矩形框框中的物體。圖中僅有汽車、行人和自行車等物體。其實(shí)障礙物的種類可以更豐富,比如摩托車、卡車,甚至動(dòng)物都是可以檢測到的。有了障礙物信息,無人車即可完成車道內(nèi)的跟車行駛。

③交通標(biāo)志牌和地面標(biāo)志(Traffic Sign and Road Sign)

圖中使用綠色或紅色矩形框框出的物體。這些感知信息更多的是作為道路特征與高精度地圖做匹配后,輔助定位。當(dāng)然也可以基于這些感知結(jié)果進(jìn)行地圖的更新。

④可通行空間(FreeSpace)

圖中使用透明綠的覆蓋的區(qū)域。該區(qū)域表示無人車可以正常行使的區(qū)域??赏ㄐ锌臻g可以讓車輛不再局限于車道內(nèi)行駛,實(shí)現(xiàn)更多跨車道的超車功能等,把車開的更像老司機(jī)。

⑤交通信號燈(Traffic Light)

圖中使用綠框框出來的物體。交通信號燈狀態(tài)的感知能力對于城區(qū)行駛的無人駕駛汽車十分重要,這也是為什么百度Apollo 2.0實(shí)現(xiàn)“簡單路況自動(dòng)駕駛”所必須開放的功能。

定位能力

相信大家都對視覺SLAM技術(shù)都有所耳聞,根據(jù)提前建好的地圖和實(shí)時(shí)的感知結(jié)果做匹配,獲取當(dāng)前無人車的位置。視覺SLAM需要解決的大問題在于地圖的容量過大,稍微大一點(diǎn)的區(qū)域,就對硬盤的容量要求很高。如何制作出足夠輕量化的地圖,成為SLAM技術(shù)商業(yè)化的關(guān)鍵。

Mobileye在已實(shí)現(xiàn)的道路經(jīng)驗(yàn)管理(Road Experience Management,REM)功能,能夠?qū)崿F(xiàn)復(fù)雜路況的全局定位能力。看個(gè)視頻感受一下。

image12.png

上一篇:
下一篇: