北京航空航天大學(xué)的研究團隊在機器人視覺領(lǐng)域取得重要突破,其開發(fā)的神經(jīng)形態(tài)視覺系統(tǒng)在運動處理速度上達到現(xiàn)有主流光流技術(shù)的四倍,為自動駕駛車輛、工業(yè)機器人和手術(shù)機器人等設(shè)備的實時響應(yīng)能力帶來顯著提升。相關(guān)成果已發(fā)表于國際權(quán)威期刊《自然-通訊》,引發(fā)科技界廣泛關(guān)注。
傳統(tǒng)機器人視覺系統(tǒng)依賴攝像頭連續(xù)拍攝靜態(tài)圖像,通過光流算法分析像素亮度變化來追蹤運動。這種方法處理單幀圖像可能需要超過0.5秒,對于時速120公里的自動駕駛車輛而言,這意味著在感知延遲期間車輛可能前進16米以上,存在嚴(yán)重安全隱患。研究團隊負(fù)責(zé)人高碩(音譯)表示,現(xiàn)有技術(shù)難以滿足動態(tài)場景下的實時性需求,尤其是復(fù)雜運動環(huán)境中的精準(zhǔn)追蹤。
在模擬駕駛測試中,該系統(tǒng)將運動感知延遲減少約75%,在機器人操作場景下將追蹤精度提升一倍。實驗數(shù)據(jù)顯示,面對多重運動交錯等復(fù)雜情況時,新系統(tǒng)雖仍需依賴傳統(tǒng)光流算法進行最終圖像解析,且在極端場景下表現(xiàn)存在局限,但其整體性能已明顯優(yōu)于現(xiàn)有方案。這表明未來機器視覺的響應(yīng)速度有望接近甚至超越人類水平。
專家指出,這項技術(shù)將顯著擴展機器人的應(yīng)用場景。在家庭服務(wù)領(lǐng)域,機器人需要快速識別手勢變化和面部表情,更快的視覺反饋可使人機交互更加自然流暢。例如,當(dāng)用戶做出停止手勢時,系統(tǒng)能夠在20毫秒內(nèi)完成識別并執(zhí)行指令,較傳統(tǒng)方案提升近4倍速度。
目前研究團隊正致力于擴大神經(jīng)形態(tài)硬件規(guī)模,并探索將其與現(xiàn)有AI系統(tǒng)整合的可行性。這項受生物啟發(fā)的視覺架構(gòu)若能突破工程化瓶頸,可能徹底改變機器人理解動態(tài)世界的方式,為智能制造、智能交通和醫(yī)療機器人等領(lǐng)域帶來革命性進展。











