人民網北京12月14日電 (記者申佳平)12月13日,在“2026中國信通院深度觀察報告會”上,中國信通院副總工程師許志遠表示,當前具身智能已取得認知智能與物理智能的雙線突破,但模型路線、數據范式以及最佳機器人形態仍未定型,大規模落地仍處于早期階段,其未來方向仍在持續競爭與快速演化中。
具身智能取得階段性突破
仍需關注三大核心爭論
許志遠介紹,當前具身智能發展已取得階段性突破。一方面,機器人的“認知智能”(即“大腦”能力)實現明顯躍升。大模型使機器人能夠完成傳統機器人難以處理的復雜任務,具備“可感知、可思考、可交互”的智能特征。另一方面,“物理智能”加速突破?;趶娀瘜W習,人形機器人在復雜地形行走、高難度舞蹈等動態任務上表現顯著提升;基于模仿學習與大模型范式,上肢操作能力快速增強,已能執行切黃瓜、倒水、疊衣服等精細操作。
“盡管技術突破不斷,但具身智能的大規模落地仍處于早期階段。”許志遠指出,當前行業主要存在三方面爭論。
一是模型路線之爭,大模型范式是否適用于機器人?雖然大模型在語言、圖像、視頻領域取得巨大成功,但“同樣的范式能否直接遷移到機器人控制”仍未被證明。
二是數據訓練范式之爭,哪類數據才是機器人智能提升的關鍵?數據仍然是限制機器人能力躍升的核心瓶頸。目前機器人模型主要依賴三類數據:真機數據質量最高但采集昂貴、規模有限;合成/仿真數據規模大、成本低,但逼真度與物理一致性有差距;人類第一視角視頻數據自然、豐富,但動作標注與映射存在挑戰。當前尚無結論表明機器人是否一定會因為有更多的數據而產生更強的能力。因此,數據范式仍在快速演化,混合數據、多模態數據、世界模型生成數據等方向均在探索中。
三是形態路線之爭,人形機器人是否是“真需求”?具身智能的落地呈現出兩大派系:一類是“人形堅守派”。這些企業堅持全人形路線,認為人形最契合人類社會現有環境與工具體系,人形形態最利于學習人類動作、利用人類數據,并且長期看具備最大通用性。另一類是折中派。我國今年涌現出多款“輪-臂式復合機器人”,其特點是輪式底盤更可靠、成本更低、部署更簡單;動作可控性強,更適合集成到商業場景快速落地。此路徑更強調“工程可落地性”,旨在在短期內形成可規?;纳虡I應用。
進一步引入世界模型
有望提升機器人大模型能力
據許志遠介紹,目前,利用大模型提升機器人的泛化能力已成為業界共識,但如何有效地將大模型應用于機器人系統,仍存在多條技術路徑,行業也在持續探索中。
第一條路徑是采用大語言模型(LLM)對人類指令進行語義理解與任務分解,這是賦予機器人高層智能的關鍵能力。第二條路徑是在LLM的基礎上引入視覺,使模型具備語言與視覺跨模態融合能力,通過視覺語言模型(VLM)進行機器人控制。借助視覺信息,模型不僅能分析環境的空間關系和物體屬性,也能更好支撐高層任務規劃。第三條路徑是在VLM的基礎上進一步加入動作生成能力,形成視覺—語言—動作模型(VLA)。這類模型以視覺圖像和語言指令為輸入,直接輸出機器人控制指令。
許志遠表示,視覺—語言—動作模型路線自2024年底以來受到高度關注。各家廠商在模型架構、模塊設計和動作生成方式上不斷優化。“然而盡管VLA在結構上不斷演進,其實際落地效果仍未達到預期。原因在于物理世界具有高度多樣性與不確定性,而當前可獲取的機器人數據量級有限、覆蓋場景不足?!?/p>
許志遠指出,展望未來,在視覺—語言—動作模型的基礎上引入世界模型(World Model),借助其對物理世界的理解、預測與推演能力,有望成為進一步提升機器人大模型能力的重要發展路徑。
合成數據和視頻數據更受重視
滿足機器人模型訓練需求
許志遠指出,機器人的真機數據雖然質量最高,但人工采集的成本極高,高質量樣本更是稀缺,遠遠無法滿足模型的訓練需求。因此,業界開始越來越重視合成數據和視頻數據的利用。
具體來看,一方面,業界開始采用混合數據訓練模式,先利用合成數據或視頻數據進行模型預訓練,再用真機數據進行微調。例如,銀河通用使用10億幀合成數據完成抓取模型的預訓練;英偉達GROOT N1模型中,合成、視頻和真機數據分別占25%、31%和44%。“我們發現,主流方案的非真機數據占比通常在80%—99%,但是哪個比例對于機器人性能提升更加有效仍需產業界來不斷試錯驗證?!痹S志遠表示。
另一方面,今年以來,使用人類第一視角拍攝的視頻數據成為破解數據瓶頸的一類重要方案。讓操作員佩戴頭戴式攝像設備,在不影響日常工作的前提下記錄其操作過程,為模型訓練提供高質量的人類示范數據。許志遠表示,目前國內外多家企業已發布相關項目或進行路線探索。