12月18日,大曉機器人正式發布行業首創的ACE具身研發范式、首個開源且商業應用的開悟世界模型3.0(Kairos 3.0)、讓具身本體擁有自主空間智能的具身超級大腦模組A1,與行業伙伴共同構建全鏈自主可控、開放共贏的產業級生態體系。
大曉機器人源于「大千世界,曉識萬象」——讓機器人真正洞察并理解萬象規律,才能使其學會與世界精準交互。
![]()
除了商湯科技聯合創始人、執行董事、大曉機器人董事長王曉剛外,大曉機器人首席科學家陶大程也是兼具頂尖學術造詣與深厚產業實踐積淀。作為澳大利亞科學院院士,陶大程榮獲IEEE計算機學會技術成就獎,在學術領域持續推動人工智能基礎研究的邊界拓展;同時,他曾出任京東探索研究院創始院長、優必選人工智能首席科學家,深度參與科技企業的技術戰略布局與產品落地實踐。
大曉機器人匯集來自南洋理工大學、香港大學和香港中文大學的全球稀缺的AI領域前沿科學家:呂健勤、李鴻升、劉子緯、潘新鋼、趙恒爽、劉希慧;他們是環境智能、世界模型、具身模型領域的開拓者,其持續創新能力將助力大曉機器人搶占技術制高點。作為全球頂尖AI實驗室MMLab的核心成員,他們傳承的創新精神正引領人工智能打破數字世界和物理世界的邊界,開啟具身智能自主探索新時代。
![]()
(從左往右:潘新鋼、李鴻升、陶大程、王曉鋼、呂健勤、劉子緯、趙恒爽)
以人為中心,開悟世界模型3.0打造“超級大腦”
“以機器為中心”的研發范式,其根本局限在于將機器人本體及其硬件參數置于研發流程的核心,本質上是用極高的資源消耗,換取有限且僵化的“智能”。
通過采集員真機遙操,海量收集各類機器人的本體數據,本質是讓人去適配和遷就機器的多樣性。這一路徑導致數據采集成本高昂、效率低下,且產出的技能模型嚴重綁定于特定硬件,無法形成通用的認知與適應能力,已成為行業向規模化、通用化發展的關鍵障礙。
當前,特斯拉、Figure AI正集體放棄此前依賴的真機遙操路徑,轉而探索純視覺學習方案,其理想是讓機器人通過觀看海量視頻,直接習得人類的動作與智慧。但這種學習方式缺乏對三維物理世界的力學規律、物理屬性和動作意圖理解,學習曲線陡峭,存在難以逾越的“現實鴻溝”。
上述兩種路徑均無法理解人所處世界的物理規律和人類行為的因果一致性,陷入本質困境:前者是“為難人”,后者是“為難機器”。
![]()
大曉機器人率先提出“以人為中心(Human-centric)” 的ACE具身研發范式,將人類與物理世界的互動規律作為核心研究起點,以環境式數據采集為引擎,構建了一套從“環境式數據采集—開悟世界模型3.0—具身交互”的全鏈路技術體系。
![]()
ACE范式核心技術之一環境式數據采集技術,以人為中心構建全要素采集體系,整合第一視角與第三視角視頻、力觸覺信息、運動軌跡、語音等多模態數據,構建基于物理基礎的3D資產庫,全面覆蓋具身模型訓練所需的各類交互信息,實現了多視角協同、長程任務覆蓋與全維度信息捕捉的跨越式升級。
![]()
在數據處理環節,通過時序一致性對齊、交互動態軌跡預測建模與物理正確性仿真校正,將采集到的“人—物—場”信息轉化為可直接用于模型訓練的動態場景數據,實現從數據采集到應用的全鏈路打通。
該技術路徑的推出為具身智能帶來四大核心數據價值。1、數據維度更全面,完成超10個視角、8種模態、4大類物品屬性的多模態數據升級,實現全要素覆蓋;2、任務覆蓋更長程,支撐分鐘級、數百種原子動作的復雜任務;3、交互精度更高,達到亞像素級標準,可精準追蹤人手精細化操作等復雜動作;4、采集效率更具規模化,能快速完成從十萬小時到千萬小時的海量數據積累。
在即時零售倉儲場景中,該方案已實現多視角數據采集,覆蓋數萬種 SKU,完成倉儲分揀與打包全流程,涵蓋五大階段13個原子動作;在居家、零售等多元場景中,也已實現對人體自然行為、物品交互軌跡的精準捕捉,甚至能復現遙操作范式下難以實現的生鮮抓取、精細化放置等任務。
![]()
以環境式采集數據為基,大曉機器人發布了首個開源且商業化應用的世界模型——開悟世界模型3.0,形成跨本體的統一世界理解框架,融合物理規律、人類行為和真機動作,使機器不僅能“理解”物理世界因果規律,還能“生成”長時動靜態交互場景,進而“預測”萬千可能。
![]()
作為首個“多模態理解—生成—預測”的世界模型,開悟世界模型3.0通過視覺、3D 軌跡、觸覺、摩擦力等多維度信息輸入,深度理解真實世界的物理規律與人類行為的底層邏輯,讓模型能形成“知其然,知其所以然”的思維鏈。
![]()
基于多模態信息的融合,模型可生成長時動態交互場景視頻,在場景內實現各元素精準可控;并具備跨本體一鍵生成、多本體泛化、預測萬千演化路徑等特性,為具身智能提供高保真、可泛化的虛擬訓練環境。
![]()
基于上述優勢,大曉機器人打造了開悟具身智能世界模型產品平臺,平臺集成「文生世界、像驅世界、跡塑世界」等多模態生成能力,內置支持11大類、54細類,累計328個標簽,覆蓋115個垂類具身場景,開發者只需輸入簡單指令,就能快速生成可視化的任務模擬內容,并可一鍵分享,大幅降低具身智能的開發門檻。
目前,開悟世界模型3.0已與沐曦股份、壁仞科技、中科曙光等多款廠商國產芯片完成適配,極大提升了芯片性能,全面趕超國際頂尖芯片;如同DeepSeek與國產芯片的全鏈路生態所帶來的虛擬世界變革,開悟世界模型3.0與全產業伙伴共同構建空間智能創新生態,形成從底層算力到上層智能應用的協同合力,重塑全球技術競爭格局。
![]()
具身超級大腦模組A1
大曉機器人正式重磅推出具身超級大腦模組A1,并與行業伙伴共建具身智能創新生態,加速機器人商業化落地,推進具身智能產業價值。
基于大曉機器人團隊領先的純視覺無圖端到端VLA模型優勢,搭載具身超級大腦模組A1的機器狗無需預采高精地圖即可適應復雜、動態、陌生環境。依托模型的視覺理解和運動規劃能力,機器人能實現動態環境下魯棒、安全、合理的路徑生成,真正實現“自主行動”。
![]()
具身超級大腦模組A1具備擁有云端交互能力,依托云端模型平臺,能實時解析自然語言指令與圖像語義的意圖關系,像人一樣理解復雜的現實世界,生成可執行的中間指令(如“前進50厘米”“繞過障礙”“靠近目標”),再由底層控制器精確執行。這使得機器狗不僅能夠在復雜環境中完成自主巡檢、跟隨、避障等多樣任務,而且能根據自然語言指令精準完成任務。
此外,大曉機器人結合Insta360 全景感知方案與商湯方舟通用視覺平臺,構建起全方位、高精度的環境感知體系。不僅能覆蓋超10個行業,還可實現超150個智能化應用場景適配,覆蓋從日常行為分析到特殊風險預警的全需求。
![]()
基于以上優勢,具身超級大腦模組A1在安防、能源、交通、文旅等對設備可靠性要求極高的場景中,可實現長期穩定工作,讓具身智能真正具備了走進產業一線的實用價值。
![]()
在具身本體領域,大曉已攜手智元機器人、銀河通用、鈦虎機器人、國地中心等多家頭部企業,打通全新技術范式、世界模型與機器人硬件的適配鏈路,共同打造適用于不同場景的解決方案。
芯片領域,開悟世界模型3.0已經與沐曦、壁仞科技、中科曙光、輝曦智能、影微創新等多款國產廠商芯片完成適配,極大提升了芯片性能,突破DeepSeek與國產芯片的全鏈路生態所帶來的虛擬世界變革,構建空間智能生態,重塑全球技術競爭格局。
硬件領域,大曉機器人與Insta360、臥龍電驅、帕西尼等伙伴深度綁定,依托硬件廠商的感知等各類硬件,強化世界模型、模組產品對多視角、動態場景的信息采集能力。
在云服務與數據層面,大曉機器人聯合商湯大裝置、騰訊云、火山引擎、商湯方舟、算豐信息等平臺,構建全流程支持體系。借助云服務商的算力調度能力,降低中小廠商的研發成本;依托庫帕思、中建西南院的數據資源,持續優化世界模型的場景泛化能力,讓方案能快速適配不同行業的個性化需求。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.