時速40公里的無人機,並不稀奇。
但能用這個速度在茂密的森林裡穿梭,還是“自己遛自己”的那種,你見過嗎?
如此高超的避障飛行走位,可不是人類用手柄操作出來的,全靠無人機的“自我管理意識”。
就算是遇到運動的障礙物,只要比這個無人機速度慢,它就都可以躲得過去。
這款自主避障無人機,是由蘇黎世大學與英特爾聯合開發。
具體而言,就是以立體深度攝像頭作為眼睛,讓無人機可以自己看得見障礙物,並規劃飛行軌跡。
換上不同效能的相機,它還可以自主完成不同的任務。
比如說躲避迎面砸過來的籃球,像這樣:
完成被稱作無人機雜技的高難度飛行軌跡也不在話下。
如此靈活的無人機,是怎麼被教出來的?
▍一對一的無人機避障學習
傳統的無人機自主避障飛行,一般都是資訊處理-製作地圖-規劃路線的處理方式。
但是由於無人機搭載的晶片效能有限,如果資訊處理不及時,無人機就可能會撞上障礙物造成事故。
想要提高資訊處理速度,不如把三步合併為一步,利用機器學習完成輸入到輸出的對映。
具體來說,就是從感測器資訊輸入直接到飛行軌跡輸出,這種處理方式在速度上要大大優於傳統方法。
如上表所示,和傳統的FastPlanner、Reactive路徑規劃方法相比,這個演算法所需的處理時間更短。雖然Reactive的處理速度也很快,但是它在高速飛行中的表現較差。
那麼,無人機如何實現從感測器輸入,直接到飛行軌跡的輸出對映?
這裡就用到了卷積網路來模擬訓練。
模擬中的神經網路訓練使用了一個“專家控制器”(expert controller),它可以使用3D點雲,準確估計出模擬訓練中的環境狀態與無人機四旋翼狀態。
由於模擬訓練沒有時間限制,“專家控制器”可以更充分地自行訓練端到端策略。
控制器還用到了Metropolis-Hastings (M-H) 演算法來計算軌跡的分佈,獲得多模式導航方案。
在這個過程中,端到端策略訓練如下圖所示:
訓練完成的“專家控制器”,將會去教授現實中無人機上的“學生控制器”(student controller)。
“學生控制器”在跟隨“專家控制器”飛行時,使用的感測器輸入均做了抽象化處理,以此來模擬現實世界中不精確的環境資料。
感測器輸入的現實影象資料,會被抽象處理成與模擬環境一致的資料,以此來完成訓練軌跡在現實中的對映。
在雪地、脫軌火車、廢墟、茂密植被和倒塌的建築物等場景下,無人機已經實現了自主穿越。
針對運動模糊、感測器噪聲和其他感知偽影等情況,無人機同樣可以輕鬆處理。
▍能征服森林的無人機,也有它的“禁區”
當然了,目前這款無人機的效能還稱不上完美無缺。
模擬系統無法完全照搬到真實世界,現實中總會出現一些模擬不了的意外事件。
比如在低照明及其他影響視覺的環境條件下,相機感知會受到限制。像是霧霾天氣、有透明或反光表面存在的情況,無人機便無法準確避障飛行。
專家控制器的訓練不包括動態障礙物躲避,所以高速移動的物體仍然會是無人機的一大威脅因素。
針對性能的最佳化,研究人員指出:
只需要使用事件相機代替傳統相機,這些視覺方面的受限因素均可以被克服。
能夠更快處理環境資訊的感測器,將會是未來高速無人機的配置方向。
同時,相關專家也提到,現實世界也將可能成為訓練無人機的場所。
隨著感測器功能和計算機能力的提升,無人機在更復雜環境中的飛行速度,很快能超過40公里/小時。
——————————-END——————————-
看累了嗎?戳一下“在看”支援我們吧!