螞蟻集團旗下具身智能公司靈波科技近日宣布開源高精度空間感知模型LingBot-Depth,為機器人與自動駕駛領域帶來三維視覺技術突破。該模型基于奧比中光Gemini 330系列雙目3D相機的原始數據構建,通過融合光學傳感與深度學習技術,顯著提升了智能終端在復雜環境中的空間理解能力,尤其在透明物體、反光表面等傳統感知難題場景中展現出顯著優勢。
在權威基準測試中,LingBot-Depth刷新多項行業紀錄。NYUv2室內場景測試顯示,其相對誤差(REL)較主流模型降低超70%;ETH3D稀疏SfM任務中,均方根誤差(RMSE)下降約47%。這種代際級性能躍升源于模型對RGB-D數據的深度整合能力——當深度傳感器因透明材質或強反光失效時,系統可自動調用彩色圖像的紋理特征與環境上下文信息,通過掩碼深度建模(MDM)技術完成缺失區域的高精度補全。
實驗數據證實技術突破的實用性。搭載LingBot-Depth的Gemini 330相機在玻璃器皿、鏡面反射等極端場景下,輸出的深度圖邊緣銳度提升40%,數據完整度達98.7%,顯著優于Stereolabs ZED系列等國際領先產品。奧比中光深度視覺實驗室認證表明,該方案在保持消費級硬件成本的同時,將復雜場景適應能力提升至工業級標準。
支撐技術突破的是靈波科技構建的千萬級場景數據庫。研發團隊采集近千萬原始樣本,篩選出200萬組高價值深度配對數據用于模型訓練,其中包含200萬真實世界數據與100萬仿真數據。這套核心數據資產將隨模型代碼同步開源,為行業提供攻克復雜場景感知難題的基礎設施。
產業合作同步推進。奧比中光已宣布將基于LingBot-Depth技術路線開發新一代深度相機,重點優化家庭服務機器人與自動駕駛汽車的近場感知能力。據悉,靈波科技本周還將陸續開源多款具身智能核心模型,構建從環境感知到決策控制的完整技術生態。











