機器之心發布
繼去年 10 月帕西尼前瞻布局宣布將打造 “具身智能數據云商城”,帕西尼聯合京東云、騰訊云、百度智能云共同打造的全球首個百億級規模全模態具身智能數據云商城,即日起全面對外開放
![]()
攜手京東云、騰訊云、百度智能云,共建 “具身智能數據綠洲”
作為一個集成了海量高質全模態實采數據與頂級云端算力的“進化服務引擎”,該平臺旨在從底層解決具身智能泛化的核心瓶頸。依托帕西尼五大自有超級數據采集工廠集群的百億級實采數據,與京東云、騰訊云、百度智能云三家頂尖的云端算力與存儲能力,該平臺將以 4 大核心維度定義服務標準,為全球具身智能研發、具身模型迭代及產業智能化升級注入全新動能,以 “具身智能數據綠洲” 破解 “數據荒漠” 難題。
全模態高維交互數據:獨家提供全球自由度最高(82)的人類手部五指動作數據,融合 30 個六維觸覺模組,首次構建 “視覺 - 觸覺 - 語言 - 動作” 的全模態閉環。
工業級精度,開箱即用:數據經過嚴格時空對齊與校驗,具備毫秒級精度,可直接訓練出高成功率、高泛化的控制模型與預訓練基座。
真機閉環驗證,打通落地 “最后一公里”:數據源于并回歸于真機交互,支持在多種機器人上完成端到端算法訓練與部署驗證,真正跨越 Sim2Real 鴻溝。
自有超級工廠,保障可持續的海量供給:依托全自建、全鏈可控的 5 大數據工廠,實現標準化、規模化采集與處理,為 Scaling Law 提供可靠、可定制的大規模數據基礎設施。
![]()
- 全模態數據云商城官網:https://dataset-mall.paxini.com/
- 全模態數據集官網:https://omnisharingdb.paxini.com/
- 樣例數據:https://huggingface.co/datasets/paxini/Omnisharing_DB_SampleData
- 最新論文鏈接:https://arxiv.org/abs/2602.05325
全球首個!是數據云商城,更是端到端的智能引擎
具身智能進化引擎:端到端一站式服務,讓模型進化步入 “快車道”
傳統的數據獲取方式賴線下拷貝、物理郵寄與繁瑣的本地部署,一套流程動輒數周,成本高昂且極易出錯。帕西尼攜手京東云、騰訊云、百度智能云三家頭部的云服務供應商,通過深度戰略合作徹底改寫了這一范式。如今,用戶在線即可快速完成一站式數據采購,真正實現 “數據到手,開箱即訓” 的服務體驗。
科學分級透明選購:數據按應用場景與操作精細度進行科學分級,價格體系透明。用戶可根據自身需求自由選擇和組合不同級別的數據包,價格體系公開透明,選購體驗高效便捷。
自助敏捷交付:用戶只需登錄數據云商城平臺,即可在線完成數據選購、合同簽署、支付與交付全流程。標準合同線上一站式便捷簽署,下單即完成交付,購買即投入使用,大幅縮短數據獲取周期。
模型線上即訓:依托三家頭部云服務商強大的云計算能力,用戶可在購買數據后,可直接下載或一鍵遷移至客戶自己的騰訊云賬戶,在云端完成數據預處理、模型訓練與部署的全流程,無需擔憂本地算力不足或存儲瓶頸,真正實現 “數據到手,模型開訓”。
全套工具鏈加持跨本體應用:數據格式兼容業界主流框架,支持轉換為 LeRobot 等標準格式,用戶無需在復雜的格式轉換上耗費精力,可直接跨本體 Retargeting 使用。
帕西尼通過端到端的云端閉環服務,將數據服務從 “選購” 到 “使用” 的周期從數周壓縮至分鐘級,讓開發者真正聚焦于模型創新。
![]()
帕西尼全模態具身智能數據云商城一站式便捷采購
數據質量高:全模態、高維度、可跨本體,全面提升模型泛化能力
基于自研高精度 6D 霍爾陣列式觸覺傳感技術,帕西尼打造了全球唯一具備高一致性物理交互數據獲取能力的柔性力學傳感器,并以此為核心,自研了整手全域觸覺采集終端 PXCap,配合空間視覺矩陣,共同構建了全球首個 “以人為中心”(Human-Centered) 的全模態具身智能數據采集體系
![]()
這一自研的數采體系所形成的堅實技術底座,保障了數據產品的高質量與高可用性,并由此重新定義了具身智能數據的行業標準:
全模態具身智能數據:通過整手無盲區觸覺覆蓋的數采設備 + 空間視覺矩陣 + Neural Mesh 多模態神經織網等自研軟硬件一體化采集系統 PMEC,可從無損高保真采集包括高精度整手多維觸覺、多視角視覺、關節角度、自體感知、語音、文本等全維度人類物理交互行為的具身智能數據,從而為具身智能體提供更豐富、更全面的環境信息,使其能夠更精準地理解任務、感知世界。
獨家 82 高自由度五指動作數據:帕西尼自主研發的 PXCap V,是全球首款實現全五指無盲區觸覺覆蓋的穿戴式數據采集設備。其內置 30 個六維觸覺模組,觸覺點數密度高達 3015 個,搭配全球最小型自研抗磁磁編碼器,可同步采集 15 種維度的觸覺感知信息及手部姿態、關節運動,軌跡重建精度行業領先,可完整還原人類在真實操作中的交互過程,可賦予具身智能體極高的物理一致性與精細度。
![]()
高效率、低成本:通過真人佩戴 PXCap 設備進行人類日常行為效率的高效采集,以 3~6 倍于傳統遙操作的效率,捕捉了人類自然、流暢且連續的日常行為數據。這種方式不僅擺脫了對昂貴機器人本體的依賴,更保留了人類在長程任務中試探、糾錯等隱性策略與連貫性。
可跨本體使用:由多個視覺角度所采集的基于人類最高維度的行為與環境數據,不僅支持任意視角的模型訓練,極大提升 Sim-to-Real 部署的魯棒性,更可直接用于高精度的三維場景與物體重建。結合 SomaRedirect 體感重定向技術,數據被解耦為通用的運動表征,實現了跨機器人構型的低成本遷移。
![]()
全模態數據 5 ms 內同步:實現了相機間硬件同步與多模態間算法同步的雙重保障,將系統延遲控制在 5ms 以內,確保了 “視覺感知 - 觸覺接觸 - 物體位移” 在時間軸上的絕對對齊,有效避免了因傳感器時滯導致模型學習到錯誤的因果關聯,為高精度的策略學習奠定了堅實基礎。
科學化的場景設計:通過系統化的場景變量控制策略(Controlled Variables),不僅覆蓋了剛體、柔性體(如織物)、透明 / 高反光體等物理對象 ,更對光照、背景干擾、物體位姿及抓握軌跡進行了多維度的隨機化與對抗性設計,從而真正具備在非結構化真實環境中處理長序列任務的強泛化能力。
嚴苛的數據質量生命線:建立了一套標準化的全生命周期閉環管理系統,極大降低了數據清洗的成本,確保了數據的一致性與高質量,讓算法工程師可專注于模型本身的迭代。
![]()
正是基于帕西尼這些核心技術與超高標準,由 Super EID Factory 所生產的億級規模全模態具身智能數據集產品 OmniSharing DB于 2025 年 8 月在北京國際大數據交易所成功上架,并獲得了官方出具的 “數據質量高,可直接使用” 的A 級數據質量標準評價,這也是國內具身智能數據產品首次獲得此類權威認證。
![]()
數據體量全球最大:五大自有工廠、百億級實采數據,從 “數據荒漠” 到 “富庶商城”
繼 2025 年 6 月于天津落成全球首個全模態超級數據采集工廠后,帕西尼已累計采集數千萬條高質量全模態數據。今年,帕西尼再建四座數采工廠,形成輻射華北、華東、華中、西南、華南的五大超級數據采集工廠戰略縱深產業集群,以十萬平實景基地、“百億級” 實采數據,從源頭破解了這一難題。
![]()
結合“in-the-wild” 理念,帕西尼可在全國五大地區采集更貼近真實生活與產業場景的數據。而依托全球首創的 “以人為中心” 數采體系優勢,五大數采工廠單日的數據產出即可等效于人類一生的交互經驗,日后,帕西尼也將以“一日一生” 的數采效率,源源不斷地向數據云商城輸送驅動具身智能泛化落地與規模應用的可靠 “燃料庫”,推動具身智能從 “數據荒漠” 走向數據 “富庶” 時代
![]()
靈活供給模式:“通用場景 + 定制化” 并行,覆蓋全場景數據需求
不同客戶處于不同的研發階段,對數據的需求千差萬別。依托天津數采工廠標準化采集與其余四廠 “in the wild” 實采能力,可為帕西尼的全模態數據云商城提供“通用場景 + 定制化場景” 的數據服務,兼顧規模化效率生產與客戶的個性化需求。
場景數據集:覆蓋海量元動作與家庭生活、3C 制造、汽車裝配、物流分揀、餐飲服務、醫療護理等 15 大核心領域的長序列場景,包含數千萬條標準化、高質量的全模態數據,企業及科研機構可即買即用,快速啟動模型訓練。
定制化數據服務:針對客戶的特定場景與任務需求,不僅支持定制化場景搭建與數據采集,更可結合全國五大工廠的地區產業特色與生活場景,踐行 “in-the-wild” 理念。通過在真實、非結構化的生產與生活環境中進行實地采集,為模型注入高魯棒性的真實數據,助力具身智能攻克復雜環境下的泛化難題。
目前,帕西尼數據云商城已上架 100+ SKU 的海量數據,并持續更新拓展,不斷為具身智能大模型提供 “強泛化” 燃料。
效果驗證:從實驗室到真實場景,具身泛化開啟 “倍速” 進化
高質量數據不是終點,讓模型具備超強的泛化能力,讓機器人真正學會 “像人一樣干活” 才是核心目標。
帕西尼不僅在學術端印證了數據的有效性,更將商城數據直接注入自研的OmniVTLA 通用具身大模型,并部署于TORA 系列人形機器人進行實戰測試。實測顯示,模型在復雜任務中的操作成功率與跨場景適應性均達到行業領先水平。
學術前瞻驗證
在帕西尼與上海交通大學、浙江大學聯合發表的最新論文《RoboPaint: From Human Demonstration to Any Robot and Any View》中,便對帕西尼所采集的數據質量與效果進行了驗證:
帕西尼提出了一種觸覺感知重定向方法,通過幾何與力引導優化,將人類手部狀態映射至機器人靈巧手狀態。實驗表明:重定向的靈巧手軌跡在 10 種不同物體操作任務中成功率達 84%;
在逼真 Isaac Sim 環境中渲染重定向的機器人軌跡,構建機器人訓練數據,僅基于帕西尼生成的數據所訓練的 VLA 策略(Pi0.5)在三種代表性任務(即抓取與放置、推拉與傾倒)中平均成功率可達 80%。
學術成果有力證明:帕西尼“以人為中心” 的數采方案是一種可擴展且成本效益極高的數采方案,其方案下所采集的帶有觸覺模態的全模態數據,對于訓練機器人復雜精細操作而言,其性能損失極小。此項學術驗證體現出帕西尼所生產的數據集具有極高的實用價值。
![]()
*RoboPaint 數據流程:該數據流程能夠基于從人類演示中采集的多模態數據 “繪制” 給具身智能體進行學習。通過 Dex-Tactile 重定向方法,能夠有效解決人機之間的跨具身性問題。
以數據飛輪加速具身進化
帕西尼已構建起 一座“數據飛輪”:通過“硬件采集 → 數據增長 → 模型優化 → 場景落地” 的全棧閉環,每一條來自真實物理世界的實采數據都在反哺模型進化。伴隨云商城海量實采數據的持續注入,帕西尼自研的 OmniVTLA 大模型在物理交互、精細操控與真實場景泛化方面的能力上限被不斷拉升,賦予機器人類人化的精準操作與自適應決策能力。
![]()
這一飛輪效應也正在加速兌現:從藥店取藥結賬到家庭收納喂貓,從餐廳收臺到辦公整理。這些曾經難以觸達的復雜長程任務,如今在百億級實采數據的灌溉下,正從實驗室測試加速轉化為落地場景。數據越多,模型越強;模型越強,場景越廣 —— 具身智能的 “倍速” 進化,已然開啟
![]()
賦能千行百業:加速 “智能涌現” 時刻的到來
在智能體從 “數字世界” 跨越到 “物理世界” 的關鍵節點,全模態交互數據 —— 尤其是高精度觸覺感知數據 —— 是連接虛擬與現實的重要橋梁。
帕西尼與京東云、騰訊云、百度智能云聯手構筑的,不僅是一個云商城,更是具身智能時代的 “數字底座”。對于高校與科研機構,它提供了此前難以觸及的大規模、高質量、全模態的研究數據,降低了前沿探索的門檻;對于機器人公司與開發者,它意味著可以將有限資源從昂貴、重復的基礎數據采集中解放出來,極大加速研發周期。
通過標準化采集、云端化服務、場景化交付,帕西尼正將曾經稀缺的具身數據轉化為像 “電力” 一樣觸手可及的工業資源,為全球具身智能的泛化能力躍遷提供核心支撐。
機器人在物理世界的智能涌現時刻,已加速到來。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.