城市服務機器人領域迎來重要突破——酷哇科技近日正式發布Coowa WAM 2.0通用世界模型底座,標志著具身智能技術向全場景應用邁出關鍵一步。該模型通過構建類生物神經系統的全棧平臺,實現了機器人從環境感知到物理交互的完整閉環,為智慧城市服務提供核心技術支持。
在技術架構層面,Coowa Physical AI平臺采用分層設計理念,包含模型層、基礎設施層與應用層三大模塊。針對城市環境中復雜的長尾場景,平臺創新性引入UrbanVLM系統,通過云端Large模型與端側Tiny模型的協同工作,實現宏觀規劃與實時決策的有機結合。其中,320億參數的云端模型可解析"優先清理堵塞排水口"等復雜指令,端側小模型則能在百毫秒內識別兒童等動態障礙物,觸發安全避讓機制。
在移動能力構建方面,WAM 2.0突破傳統路徑規劃框架,通過視頻生成預測技術實現反事實推演。該模型基于實車采集的千萬公里級真實數據訓練,結合少量合成數據增強,使機器人通行能力接近物理極限。技術團隊透露,升級后的系統在人群穿梭等博弈場景中,運動流暢度提升40%,機械臂控制誤差收斂至厘米級。
商業落地層面,酷哇科技已形成三大核心業務矩陣:L4級自動駕駛小巴CooBus累計安全運營里程突破500萬公里,覆蓋國內多個城市;智慧物業領域推出輪足機器人R0與四足機器人D0組合方案;智慧環衛板塊則以"麒麟"X3、"獨角獸"X1系列產品占據市場主導地位。數據顯示,該公司在千萬元級智慧環衛項目中的市場占有率達80%,交付能力行業領先。
技術迭代與商業運營形成良性循環:全球50余個城市的真實服務場景,為模型訓練沉淀了數百萬個高價值長尾數據。公司CTO廖文龍指出,物理交互真值數據的持續積累,使場景適配成本降低60%,推動機器人解決方案在更多垂直領域快速復制。目前,酷哇科技訂單儲備超50億元,為下一階段規模化擴張奠定基礎。
在具身智能實現路徑上,酷哇科技選擇"視覺-語言-動作"(VLA)端到端架構,使機械臂操作與視覺感知直接對齊。通過學習數百萬小時真實作業數據,系統可自適應調整清掃力度與軌跡規劃。這種數據驅動的技術路線,使機器人具備在開放環境中持續進化的能力,為智慧城市服務提供可持續的技術保障。











