![]()
經濟觀察報 記者 陳月芹
3月17日,在亞布力中國企業家論壇第二十六屆年會上,宇樹科技創始人王興興以亞布力新理事的身份,在開幕式上第一個演講。
機器人如何訓練、實現真正的智能,是業內最關心的話題之一。為此,宇樹開發了全身遙操作系統,實現人機動作同步。王興興介紹,這項技術有兩個實用功能:一是大規模數據采集,如果2026年年底前宇樹部署上萬臺機器人每天采集10小時數據,兩三年內就能解決機器人數據稀缺的問題;二是遠程控制,比如人在杭州就能實時操作異地的機器人。
王興興提出一個預判:具身智能的“ChatGPT時刻”快來了。樂觀的人預估可能需要18個月,他稍微悲觀一點,預估需要2—3年。
他對“ChatGPT時刻”的定義是,AI模型可以在80%的陌生場景下,通過語言和文字指令實現80%的任務,且不需要提前建圖。
數據泛化的準確率和具身智能的訓練成本息息相關。對機器人而言,如果在特定場景進行預先訓練,其成功率基本可以達到100%。但如果更換場景,成功率就會大幅下降。
王興興認為,目前行業距離具身智能的“ChatGPT時刻”還面臨挑戰,其中最大的挑戰在于AI模型的泛化能力不足。
要提高機器人的泛化能力,一是要提高模型對機器人運動的表達能力。如果模型本身的表達能力或動作豐富度不足,泛化能力有限;二是提高數據利用率。目前,語言模型或多模態模型領域數據豐富,互聯網上存在大量數據,但機器人領域的數據仍然稀缺;三是強化學習的規模效應需進一步提升。
目前,具身智能領域的模型主要分成兩個流派,一個是VLA模型,即在語言模型或文本模型基礎上融入機器人模型;另一個是世界模型,即通過對物理世界進行預估和建模來驅動機器人。在這一模式下,機器人無需依賴實拍動作數據,而能像人類一樣想象,先在“大腦”中構想動作,再將動作投射到機器人身上執行。王興興非常看好基于視頻生成的世界模型這一技術路徑。
文生視頻模型的發展讓王興興感到興奮。他在亞布力論壇上兩度提及今年1月字節跳動推出的Seedance 2.0模型,并評價這是全球目前最好的、沒有之一的視頻生成軟件,“全球遙遙領先”。
他解釋為什么著重提到Seedance:如果人用AI生成一個機器人在家干活的視頻,且生成質量很高,某種意義上,只需將該視頻與機器人動作對齊,機器人就能執行任務。但目前最大挑戰在于視頻與機器人動作無法良好對齊和統一,這是全球性難題。一旦視頻生成的動作與機器人模型統一,數據難題將從根本上被解決,機器人計算模型也將誕生。
機器人有了自主意識和感知環境的能力,會是什么樣?王興興描繪了一個場景:如果明年或后年,我將人形機器人帶到一個完全陌生的場景,它不認識在場的每個人,這時我請機器人幫忙把一瓶水遞給某人,它能完全自主地完成任務,無需預先建圖。“這就真正實現了具身智能的‘GPT時刻’。”
在亞布力論壇上,王興興還介紹了宇樹科技近期的產品和技術進展:2025年宇樹發布了工業級應用的新一代機器狗,防塵防水,滿電空載續航超20千米;還發布了更大尺寸(1.8米高)的H2機器人,力氣更大,適用于工業或農業場景。預計今年年中,人形機器人的百米沖刺速度能跑進10秒以內,超過人類博爾特。
關于出貨量,截至2025年底,宇樹G1全球出貨量約5000臺,最便宜的機器人售價約3萬元。如果未來AGI達到臨界點,宇樹的年出貨量可能飆升至百萬臺。
一個月前,宇樹機器人第三次登上央視春晚,表演了醉拳、雙節棍、舞劍等,以及單腿連續空翻、兩步上墻等高難度動作,這對硬件和軟件穩定性的要求非常高。
這一套表演,可以體現宇樹機器人在機器人AI強化學習領域的努力,其中“功夫模式”便是其2025年最大的升級。為了提升性能,宇樹給機器人加裝了兩顆128線3D激光雷達,預訓練AI模型,使動作可以隨時暫停或任意切換,靈活性大大增強。以前機器人下臺只能緩緩步行,現在宇樹開發了集群跑位算法,讓機器人能跑步變陣,銜接更自然。
(作者 陳月芹)
免責聲明:本文觀點僅代表作者本人,供參考、交流,不構成任何建議。
![]()
陳月芹
可聯系:chenyueqin@eeo.com.cn
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.