隨著自動駕駛、機器人和無人機為代表的無人智能系統的迅猛發展,導航定位技術需要具備環境感知能力,利用環境特征實現相對于背景環境的定位。因此出現了基于相機的平面影像(圖片)和激光掃描雷達(LiDAR)的三維影像(點云)而實現的視覺定位與導航。我們將LiDAR的三維點云當作是三維視覺傳感器,加上平面相機、深度相機(RGB-D)、毫米波掃描雷達等器件,一并稱為“廣義視覺”傳感器,研究廣義視覺定位技術。
本團隊的研究目標是將視覺定位加入到GNSS/INS組合導航中,發揮視覺與GNSS對環境要求的互補特性(前者適合城市建筑群中,后者適合露天開闊環境),實現更加穩健可靠的多源導航。由于我們團隊在影像處理方面基礎薄弱,因此目前的視覺定位研究側重于影像處理與慣導/GNSS的互動,強調慣導提供的先驗位姿信息對影像處理的輔助作用,并利用影像處理得到的視覺定位定姿信息來修正慣導結果。類比于深組合技術中慣導輔助GNSS接收機的底層信號處理,在我們的視覺定位方案中也將嘗試用慣導輔助影像處理,甚至是輔助成像,實現視覺/慣導深組合方案。再加上GNSS提供的全局絕對定位信息,可實現視覺/GNSS/INS三源有機融合方案,最終進入“三生萬物”的境界。
現階段,本團隊已參照口碑好的開源代碼自主搭建了LiDAR點云SLAM和相機視覺SLAM算法框架和軟件平臺,形成了有特色的數據處理算法,SLAM定位定姿精度達到了業界同行的領先水平。LiDAR與相機的三維/二維影像融合方案也在做嘗試?;谖覀兊腖iDAR SLAM方案,學生們獲得了2018年京東自動駕駛比賽的全球總冠軍。
視覺定位技術雖然很熱,從業者眾多,但我覺得還處于跑馬圈地的粗放發展階段,目前影像處理所依賴的仍然是特征點、特征線和特征面等原始的幾何特征,或者干脆采用“直接法”這種完全不提取特征的方式。人類的視覺導航所依賴的指示牌、幾何圖形、門窗家具等語義物體都沒有被充分利用;更加抽象的視覺特征向量描述也尚未開展。
另一方面,SLAM方案的定位定姿功能對于民用的價值是值得商榷的,因為SLAM的定位發散誤差一般不會小于慣導+里程計的這種經典的航位推算導航方案,對導航定位精度的貢獻有限。因此,在我們的多源融合方案中,SLAM主要用于建圖,而在定位過程中視覺主要是將當前幀與先驗的視覺地圖做匹配來實現絕對定位定姿,進而修正慣導漂移。
在這里,人工智能(AI)算法也是很值得嘗試的,我們很看好用機器學習來提取和識別視覺特征,從而顯著提高視覺定位的穩健性和可信度。
版權所有:武漢大學多源智能導航實驗室(微信公眾號:i2Nav) 當前訪問量: 技術支持:武漢楚玖科技有限公司