MIT和Draper實驗室連手開發出視覺輔助導航技術,結合視覺算法與慣性傳感器,讓無人機在GPS信號無法到達的環境下實現自主飛行...
美國麻省理工學院(MIT)和德雷珀實驗室(Charles Stark Draper Laboratory;CSDL)開發出視覺輔助導航技術,讓救援或偵察無人機在GPS信號無法到達的環境下實現自主飛行。
為了克服GPS信號的限制,以往的研究嘗試使用其導航技術,例如光達(LiDar)等,但都無法成功。相形之下,MIT與Draper開發的技術并不像以往一樣依賴于定向結構的系統、動作擷取系統或地圖。此外,許多替代性方案還受限于無人機45mph的飛行速度——超越許多板載通訊信號速度范圍。
當先遣急救人員或士兵在地下室、茂密的森林遮蓋下或高樓大廈密集的都市叢林等GPS信號無法到達之處操作無人機(UAV)時,MIT與Draper研究人員的解決方案能讓UAV能在未知的環境下自動操控。
MIT和Draper實驗室的研究團隊打造出一款具有視覺能力的無人機,能在地下室、森林和都市叢林等沒有GPS信號的環境下進行導航(來源:Charles Stark Draper Laboratory)
這款配備傳感器與攝影機的四軸飛行器由DARPA“高速輕量自主飛行”(Fast Lightweight Autonomy,FLA)計劃贊助,并已針對室內與戶外混合的情況(包括雜亂密集與開放的環境)進行測試,在沒有遠程飛行員操作的情況下,模擬UAV快速飛航于未知環境時可能遇到的情況。
研究團隊表示,由Draper實驗室開發的導航方法結合了視覺與慣性感測功能,并形成一種新的狀態評估途徑:可用于估算無人機的位置、方向和速度。研究人員將這種途徑稱為“以慣性狀態評估無縫運作與映像(smoothing and mapping with inertial state estimation;SAMWISE)”。
Draper的SAMWISE傳感器融合算法可讓無人機在無映射、無法取得GPS導航的環境中,能以45mph的速度飛行(來源:Charles Stark Draper Laboratory)
這款測試無人機采用特定的傳感器和算法配置,以及基于IMU導航的單眼相機,在躲避樹木、定位建筑物入口以及進出建筑物時,都能成功地保持精確的位置估算。這項技術還可能適用于地面或水下等其他無法存取GPS的地點。
MIT工程師多年來致力于開發各種自主機器人和無人機導航,包括光達、RFID以及同步定位與映像(SLAM)等。