在杭州舉辦的一場新品發布會上,宸境科技以一場別開生面的展示,向行業宣告了具身智能領域的一次重大突破。不同于以往機器人發布會上常見的炫技表演,宸境科技此次聚焦于具身智能的“基礎設施”建設,推出了“LooperRobotics”品牌體系及其全棧技術矩陣,包括Insight自主空間智能相機、TinyNav神經導航算法庫和RoboSpatial空間感知軟件平臺,為機器人感知技術帶來了從“定制化”到“通用化”的轉變。
宸境科技此次發布的Insight自主空間智能相機,以其獨特的設計理念顛覆了傳統攝像頭的設計常規。不同于行業普遍采用的水平排列攝像頭,宸境科技將三個攝像頭垂直排列,實現了驚人的188°視場角。這一設計靈感源自對機器人實際落地場景的深刻洞察。在大型展會等擁擠環境中,傳統橫向攝像頭易受人群干擾,導致機器人“失明”。而Insight相機通過捕捉頭頂和腳下的固定參照物,確保了機器人在復雜環境中的穩定定位,有效解決了這一難題。
除了視角上的創新,Insight相機在抗震性能上也實現了重大突破。針對足式機器人在高動態運動中產生的劇烈震動,宸境科技將相機的抗震能力提升至24g,遠超行業平均水平。這一改進使得機器人能夠在更惡劣的環境下穩定工作,從“溫室花朵”進化為“工業器官”,為機器人在各種復雜場景中的應用提供了有力保障。
在數據處理方面,宸境科技同樣展現了其前瞻性的技術視野。Insight相機內置了擁有10TOPS強勁AI算力的地瓜機器人智能計算芯片,實現了算力內移。這一設計不僅解決了傳統機器視覺在面對白墻、透明玻璃等無紋理環境時的“白墻恐懼癥”,還通過神經網絡深度計算,提高了距離測量的準確性。更重要的是,它實現了“感知-行動”的閉環在毫秒級內完成,保證了機器人動作的敏捷性和準確性。
如果說Insight相機解決了機器人“看得見”的問題,那么TinyNav神經導航算法庫則是為了解決“認得路”的難題。TinyNav項目發起人楊振飛介紹,該算法庫借鑒了生物大腦中的“網格細胞”和“位置細胞”機制,通過仿生學路徑實現機器人的環境認知。與傳統的幾何測量導航技術相比,TinyNav更加注重環境的特征識別,能夠大幅提升導航系統的泛化性。同時,其核心代碼行數被嚴格限制在3000行以內,體現了輕規則重數據的設計理念。
宸境科技首席機器人科學家左星星的加盟,為公司在多模態感知、場景理解等領域的前沿技術研究提供了堅實支撐。作為機器人感知領域的專家,左星星在移動機器人感知、3D計算機視覺等方面有著深厚的學術背景和豐富的實踐經驗。他的加入,無疑將加速宸境科技在具身智能領域的技術創新和產品迭代。
為了讓這套系統更加易用,宸境科技還開發了RoboSpatial空間編輯平臺。該平臺通過可視化的界面設計,使得開發者能夠像搭積木一樣進行路徑規劃和區域設置,極大降低了具身智能落地的門檻。無論是大型港口還是園區,運營人員都能在短時間內完成機器人作業流程的部署,推動了具身智能技術的廣泛應用。
從算法和軟件到硬核傳感器硬件的跨越,宸境科技的這一步轉型看似突兀,實則順應了空間智能技術發展的必然趨勢。公司聯合創始人兼CEO胡聞提出了“空間智能即服務”的全新理念,認為具身智能將成為未來物理任務的基礎設施。宸境科技的角色,正是成為這個龐大產業鏈中的一級供應商,為機器人提供統一、標準、高可用的感知底座。











