上海螞蟻靈波科技有限公司與樂聚智能(深圳)股份有限公司近日達成戰略合作,雙方將聚焦具身智能機器人領域,通過技術互補與場景協同,共同探索工業與商業場景的智能化解決方案。此次合作標志著兩家企業在具身智能賽道上邁出關鍵一步,旨在推動機器人從單一功能向通用智能演進。
合作基礎源于雙方此前在數據層面的深度協作。作為螞蟻靈波的核心數據伙伴,樂聚機器人已為其LingBot-VLA具身大模型提供近萬小時的高質量多模態真機數據,覆蓋工業搬運、商業服務等場景。這些數據幫助模型突破了"硬件場景-數據-算法"的閉環瓶頸,實現了跨機器人本體、跨任務類型的泛化能力,為"一腦多機"的工程化落地奠定基礎。樂聚機器人CEO常琳表示,真實場景數據是訓練具身智能模型的核心要素,雙方通過數據共享機制,已驗證了技術路徑的可行性。
根據新簽署的協議,雙方將構建更具行業代表性的具身智能真機數據集。螞蟻靈波將發揮其在多模態大模型架構、跨模態感知理解等方面的技術優勢,樂聚機器人則提供機器人本體設計、復雜場景部署及長期運營經驗。通過聯合訓練與優化迭代,雙方計劃提升機器人在動態環境中的"感知-決策-執行-學習"全鏈路能力,使其能更自主地適應工業產線、商超服務等場景的多樣化需求。
在簽約儀式上,螞蟻靈波科技CEO朱興透露,雙方已成立專項技術團隊,針對工業場景中的精密裝配、商業場景中的智能導購等典型任務開發解決方案。例如,在汽車制造領域,機器人需同時處理視覺定位、力控操作、異常處理等多維度任務,這對模型的泛化能力和本體的適應性提出極高要求。通過此次合作,雙方計劃在年內推出可復用的行業模板,降低具身智能技術的落地門檻。
當前,具身智能產業正面臨從技術驗證到場景落地的轉折點。行業普遍認為,僅有強大的模型或先進的本體均不足以實現通用智能,必須通過真實場景的持續反饋優化技術閉環。此次合作通過整合數據、算法、本體三要素,為破解"模型-硬件-場景"的融合難題提供了新思路。據內部人士透露,雙方已與多家制造業企業接觸,計劃將首批合作成果應用于3C產品組裝、倉儲物流等高精度、高柔性場景。











