螞蟻集團旗下靈波科技近日宣布,正式開源其自主研發的具身大模型LingBot-VLA。這款面向真實機器人操作場景的智能基座模型,通過突破跨本體、跨任務泛化技術瓶頸,顯著降低了具身智能系統的后訓練成本,為“一腦多機”的工程化落地提供了關鍵支撐。
在性能驗證方面,LingBot-VLA展現出顯著優勢。上海交通大學發布的具身評測基準GM-100測試顯示,該模型在三個不同構型機器人平臺上實現跨本體泛化,平均成功率較基準模型Pi0.5提升2.7個百分點至15.7%。當引入高精度空間感知模型LingBot-Depth的深度信息后,成功率進一步躍升至17.3%,刷新了真機操作任務的成功率紀錄。在RoboTwin 2.0仿真基準測試中,面對光照變化、雜物干擾等復雜環境,模型通過可學習查詢對齊機制深度融合多模態信息,操作成功率較Pi0.5提升9.92%,展現出從虛擬仿真到真實場景的全維度性能領先。
針對具身智能落地長期面臨的泛化性難題,LingBot-VLA構建了創新解決方案。基于2萬小時以上的大規模真機數據預訓練,模型覆蓋了AgileX、Galaxea R1Pro等9種主流雙臂機器人構型,形成可遷移的通用智能基座。通過與LingBot-Depth的深度協同,模型獲得更精準的空間感知能力,在任務切換和環境變化時仍能保持穩定性能。數據顯示,該模型僅需80條演示數據即可完成新任務適配,訓練效率達到主流框架StarVLA的1.5至2.8倍,有效降低了數據采集與算力消耗成本。
此次開源計劃采取全棧開放策略,除模型權重外,同步開放數據處理、高效微調及自動化評估的完整代碼庫。這種“開箱即用”的設計使開發者無需從零構建訓練框架,可將訓練周期壓縮40%以上。據技術團隊介紹,通過底層代碼庫的深度優化,模型在相同硬件條件下可節省30%以上的訓練算力,為中小企業和科研機構提供了低成本的技術驗證路徑。
螞蟻靈波科技CEO朱興指出,具身智能的規模化應用取決于高效基座模型的突破。LingBot-VLA通過降低技術門檻,推動行業從“定制化開發”向“標準化交付”轉型,使AI能力更高效地滲透至物理世界。該模型作為螞蟻InclusionAI技術體系的重要組成,與基礎模型、多模態大模型等形成技術協同,構建起覆蓋具身智能全鏈條的開源生態。
在生態建設方面,LingBot-VLA已與星海圖、松靈機器人等硬件廠商完成系統適配,驗證了跨構型遷移能力。數據采集階段獲得樂聚機器人、庫帕思科技等機構提供的多場景訓練數據支持,國家地方共建人形機器人創新中心等單位也參與了模型優化工作。這種產學研協同模式,為模型在工業制造、物流倉儲等領域的落地應用奠定了基礎。











