在機器人技術向“具身智能”深度演進的進程中,如何賦予金屬軀體人類般的細膩觸覺,已成為突破精細化操作壁壘的核心命題。近日,由國地中心與緯鈦機器人聯合研發的全球首個跨本體視觸覺多模態數據集“白虎-VTouch”正式發布,其以60000分鐘的真實交互數據與跨設備采集范式,為機器人感知領域開辟了全新維度。
該數據集突破了傳統實驗數據的碎片化局限,構建起覆蓋多模態信息的完整體系。其核心數據規模達9072萬對真實接觸樣本,整合了視觸覺傳感器信號、RGB-D深度圖像及機器人關節位姿數據,通過時空對齊技術實現三模態信息的深度融合。搭載的640×480分辨率傳感器支持120Hz刷新率,可精準捕捉接觸面0.01毫米級的形變與微牛級力反饋,為算法訓練提供了毫米級精度的物理世界映射。
“跨本體”采集范式是該數據集的革命性突破。研究團隊構建了包含人形機器人“青龍”、輪臂復合型機器人D-Wheel及手持式pika夾爪在內的多樣化硬件平臺,覆蓋從復雜動力學構型到輕量化終端的全場景設備。這種設計使算法模型能夠跨越不同機械結構,通過統一的數據表征實現感知能力的遷移學習,顯著降低多形態機器人部署觸覺感知的技術門檻。
針對現實場景的復雜性,數據集構建了四級任務矩陣體系。在家居家政領域,涵蓋家具整理、廚具操作等32類交互任務;餐飲服務場景包含玻璃器皿抓取、食材處理等45種柔性物體操作;工業制造模塊聚焦精密裝配中的力控調整,特種作業則涉及高溫/高壓環境下的器械操作。任務設計包含100余項原子技能與260個接觸密集型任務,形成從基礎動作到復雜操作的全鏈條訓練集。
實證研究表明,引入視觸覺感知后,68%的任務實現了接觸狀態的全周期追蹤。在玻璃杯抓取測試中,系統可實時感知接觸面積變化與滑動趨勢,使抓取成功率提升42%;在精密零件組裝任務中,力控調整響應時間縮短至80毫秒,達到人類操作員水平。這種感知能力的質變,為機器人實現自主失敗恢復與動態環境適應提供了關鍵支撐。
隨著數據集與配套開發工具包的開放下載,全球科研機構已啟動基于該數據的算法優化工作。某國際機器人實驗室利用其多模態對齊技術,將觸覺-視覺融合模型的訓練周期從3個月壓縮至3周;國內團隊通過遷移學習,使工業機械臂在未見過的新場景中快速獲得接觸感知能力。這場由數據驅動的感知革命,正在重塑機器人技術的進化路徑。











