4月19日消息,在2026北京亦莊機器人半程馬拉松上,阿里旗下高德公開首款開放環境全自主ABot體系,從架構上突破了傳統具身智能“單點拼湊、封閉驗證”的碎片化路徑,以AGI為核心目標,首次將數據引擎、基座模型與執行中樞耦合為統一系統。目前,高德ABot系列模型已經在全球15項權威基準測試中拿到SOTA。
據了解,ABot體系采用閉環飛輪式設計,涵蓋數據、模型、應用三層,架構并非簡單堆疊,而是深度咬合、互為引擎,實現“數據驅動模型、模型服務應用、應用反哺數據“。
![]()
據介紹,作為數據層的核心, ABot-World通過批量合成 Video、Depth、Point Cloud、Trajectory 四類訓練數據,配合RL Training Engine在虛擬環境里定義獎懲、反復試錯。模型以高保真仿真替代高昂的真機采集,從根本上彌合Sim-to-Real鴻溝,將數據成本壓縮數個數量級。
模型層重點解決具身操作的通用性和導航的長程性,其核心是感知與決策。其中ABot-M負責操作,ABot-N負責導航,兩個模型分工訓練、通過 Model Skill機制組合調用,完成長程復雜任務。
應用層的核心是具身版“龍蝦”ABot-Claw,通過將異構機器人統一于共享認知框架之下,打造具備調度、記憶、分層控制與社會對齊能力的“執行中樞”,以應對長程任務閉環難、知識不共享等問題。
據悉,在PBench、EZSbench、WorldArena、Agibot World Challenge等主流評測中ABot-World持續領先,并成為唯一在物理合規性、動作可控性、零樣本泛化三大維度均達SOTA的模型。
此外,作為首個實現五大核心導航任務"大一統"的VLA基座模型,ABot-N具備意圖理解、自主決策與持續進化能力,是途途走向開放世界的核心導航引擎。ABot-M是全球首個統一架構的具身操作基座模型,其可實現一個“通用大腦”適配多種形態的機器人,大幅提升操作模型在異構機器人形態和任務場景下的泛化能力。其采用層級式“大腦-動作”架構,通過多模塊協同實現單一模型導航任務全覆蓋。ABot-N推出后,在VLN-CE(R2R/RxR)、HM3D-OVON、EVT-Bench等7大權威基準上全面刷新SOTA,并在導航精度、社會合規性、zero-shot泛化實現領先。
據介紹,在LIBERO、LIBERO-Plus、RoboCasa GR1、RoboTwin 2.0等主流評測中,ABot-M全面超越π0.5、UniVLA、OpenVLA-OFT等強基線,在泛化能力、魯棒性與跨形態遷移三個維度實現領先。
在ABot-Claw層面,作為ABot體系的“執行中樞”,ABot-Claw采用集中式Harness架構,將高德地圖與用戶私有地圖設為全局認知錨點,把多模態感知數據統一映射至共享語義空間,形成可動態刷新、持久沉淀的“世界記憶”。新終端接入后,僅需讀取全局上下文即可零成本繼承環境認知。另外,ABot-Claw 采用"云端大腦—邊緣響應"兩級設計,兼顧智能深度與執行可靠性。在調度層面,該架構還支持多種異構機器人的并行協作與任務接力,故障時自動接續,實現任務上下文無縫移交與跨形態協作。ABot-Claw還首創閉環反饋與糾錯機制,在模糊指令理解、跨機導引等復雜場景中充分驗證其魯棒性與泛化性。(定西)
