follow us
AING硬跡
過去兩年,以英偉達(dá)Isaac Sim、Mujoco為代表的仿真平臺大幅降低數(shù)據(jù)獲取成本,催生了一批“仿真訓(xùn)練、真機(jī)部署”的算法方案。
與自然語言處理領(lǐng)域依賴互聯(lián)網(wǎng)海量文本不同,機(jī)器人領(lǐng)域的高質(zhì)量真機(jī)數(shù)據(jù)獲取成本極高、采集周期長、標(biāo)注難度大。
仿真環(huán)境可以無限次重置、批量生成場景,卻無法復(fù)現(xiàn)真實(shí)世界的物理混沌,物理世界中存在接觸力的細(xì)微波動、摩擦系數(shù)的隨機(jī)變化、光照條件的動態(tài)偏移等情況,這些“不確定性”恰恰是機(jī)器人落地時的致命陷阱。
因此真機(jī)數(shù)據(jù)的稀缺性,也在重塑行業(yè)競爭格局。
近日,樂聚機(jī)器人正式發(fā)布OpenLET“觸覺靈巧操作+全身運(yùn)控”數(shù)據(jù)集,是全球首個融合觸覺靈巧操作與全身高動態(tài)運(yùn)動的稀缺數(shù)據(jù)集,不僅填補(bǔ)了行業(yè)長期存在的數(shù)據(jù)空白,更以全平臺總下載量突破100萬次的成績,登頂全網(wǎng)開源具身數(shù)據(jù)下載榜首位,成為國內(nèi)最大的具身真機(jī)數(shù)據(jù)提供商。
![]()
破解“觸覺+全身運(yùn)控”雙重難題
人形機(jī)器人的“進(jìn)化”,正從動作模仿走向感知理解,從單一技能走向全身協(xié)同。
當(dāng)前,絕大多數(shù)開源數(shù)據(jù)集仍停留在“視覺-動作”的簡單映射階段。機(jī)器人可以模仿人類抓取、放置,但無法感知抓取時的力度變化、物體材質(zhì)、接觸瞬態(tài),而這也是實(shí)現(xiàn)精細(xì)操作的關(guān)鍵壁壘。
業(yè)內(nèi)同時覆蓋高精度觸覺感知與全身運(yùn)動控制的規(guī)模化數(shù)據(jù)集幾乎空白。
OpenLET將觸覺陣列數(shù)據(jù)引入到開源真機(jī)數(shù)據(jù)集中。其指尖壓力矩陣達(dá)到6×12×10的密度,能夠?qū)崟r捕捉接觸面上的微觀壓力分布。這意味著,機(jī)器人不再是“盲操作”,而是能在抓取雞蛋與鋼球時,做出截然不同的力控反應(yīng)。
配合腕部六維力傳感器(精度±0.5%)、RGB-D視覺數(shù)據(jù)以及同步動作信息,實(shí)現(xiàn)了“視覺-力觸-動作”全鏈路對齊。
數(shù)據(jù)集還包含多場景語義標(biāo)注,涵蓋場景類型、物體材質(zhì)、操作目標(biāo)等信息,為模型的語義理解與泛化能力訓(xùn)練提供了堅實(shí)基礎(chǔ)。
傳統(tǒng)的視覺數(shù)據(jù)集只能告訴機(jī)器人“看到了什么”,而OpenLET能告訴它“摸到了什么”并且“該如何調(diào)整”,這種多模態(tài)對齊數(shù)據(jù)對于訓(xùn)練魯棒的抓取策略至關(guān)重要。
如果說靈巧操作是“手”的進(jìn)化,那么全身運(yùn)控就是“身體”的覺醒。
OpenLET包含41個關(guān)節(jié)的高自由度控制信號,任務(wù)維度從傳統(tǒng)的行走、站立,延伸到深度下蹲、彎腰、全身聯(lián)動等高難度動作。其運(yùn)動表現(xiàn)在節(jié)奏、平衡維持、交互順應(yīng)性上高度擬人,顯著提升了機(jī)器人在非結(jié)構(gòu)環(huán)境中的適應(yīng)能力。
這種“手+身”的數(shù)據(jù)融合,為人形機(jī)器人實(shí)現(xiàn)真正意義上的“全身協(xié)同智能”提供了關(guān)鍵基礎(chǔ)資源。
![]()
百萬下載量背后
在人形機(jī)器人從實(shí)驗室走向真實(shí)場景的臨界點(diǎn)上,數(shù)據(jù)作為AI時代的“石油”,是決定技術(shù)高度的“一大燃料”。
而在具身智能研發(fā)中,仿真數(shù)據(jù)雖然成本低廉,但存在“仿真到現(xiàn)實(shí)”的遷移鴻溝;而真機(jī)數(shù)據(jù)雖然采集成本高昂,卻是訓(xùn)練可靠模型的“硬通貨”。
特斯拉Optimus憑借工廠場景的海量部署積累“私有數(shù)據(jù)飛輪”、Figure AI通過與寶馬等制造業(yè)巨頭的合作鎖定高價值工業(yè)場景數(shù)據(jù)、波士頓動力則依托數(shù)十年的機(jī)器人運(yùn)行日志,構(gòu)建運(yùn)動控制數(shù)據(jù)庫等,“圈”起自身的在數(shù)據(jù)資產(chǎn)的規(guī)模、質(zhì)量與生態(tài)的影響力。
與互聯(lián)網(wǎng)時代的ImageNet、自動駕駛領(lǐng)域的KITTI類似,具身智能領(lǐng)域亟需一個開放、標(biāo)準(zhǔn)、多模態(tài)的基準(zhǔn)數(shù)據(jù)集,以降低創(chuàng)新門檻、加速技術(shù)迭代。
OpenLET的發(fā)布,只是樂聚在具身智能數(shù)據(jù)領(lǐng)域布局的冰山一角,同時也在不斷拓展自己的生態(tài)錨點(diǎn)。
在全國14個人形機(jī)器人訓(xùn)練場中,樂聚參與建設(shè)了9個,覆蓋一線、新一線及長三角制造業(yè)重鎮(zhèn),并構(gòu)建起年產(chǎn)2500萬條真機(jī)數(shù)據(jù)的生產(chǎn)能力,形成國內(nèi)最大的機(jī)器人訓(xùn)練場網(wǎng)絡(luò)。
LET數(shù)據(jù)集覆蓋117種原子技能,開源數(shù)據(jù)超過60,000分鐘,涵蓋從工業(yè)裝配、商業(yè)服務(wù)到家庭家務(wù)的多類場景及各類語義標(biāo)注,極大降低了下游算法研發(fā)的數(shù)據(jù)門檻。
值得注意的是,樂聚已累計交付20000小時真機(jī)數(shù)據(jù),成功跑通數(shù)據(jù)交易鏈條。市場用下載量投票,也證明了真機(jī)數(shù)據(jù)的剛需屬性。
樂聚的開源策略,極大降低了學(xué)術(shù)界和中小企業(yè)的研發(fā)門檻,以數(shù)據(jù)為紐帶,構(gòu)建起“采集—開源—交易”的完整商業(yè)閉環(huán)。
樂聚并未止步于數(shù)據(jù)采集與開源。
在標(biāo)準(zhǔn)建設(shè)層面,其參與國家級標(biāo)準(zhǔn)訓(xùn)練場試點(diǎn),申請和參與標(biāo)準(zhǔn)7項,入選省標(biāo)準(zhǔn)化技術(shù)委員會,并獲得了江蘇省首批數(shù)據(jù)知識產(chǎn)權(quán)證書、數(shù)據(jù)資產(chǎn)保險。其數(shù)據(jù)不僅是研發(fā)資源,更是可確權(quán)、可交易、可投保的數(shù)據(jù)資產(chǎn)。
數(shù)據(jù)能力的壁壘
過去幾年,人形機(jī)器人的競爭焦點(diǎn)多集中于本體硬件、電機(jī)驅(qū)動、運(yùn)動控制算法。而隨著大模型與具身智能的深度融合,數(shù)據(jù)的規(guī)模、質(zhì)量、多樣性、對齊程度,正成為決定算法上限的關(guān)鍵變量。
人形機(jī)器人的終局,不是某一家公司的獨(dú)角戲,而是整個生態(tài)的共同進(jìn)化。而在這個生態(tài)中,數(shù)據(jù),就是最底層的“通用語言”。
當(dāng)越來越多的開發(fā)者、研究機(jī)構(gòu)、企業(yè)通過這些數(shù)據(jù)訓(xùn)練出更智能、更靈巧、更穩(wěn)健的機(jī)器人時,我們會發(fā)現(xiàn):具身智能產(chǎn)業(yè)正從“硬件追趕”邁向“數(shù)據(jù)定義”的新階段。
樂聚,正在為這個時代鋪路。
AING硬跡正在打造AI硬件社區(qū),對加入社群感興趣的讀者,歡迎掃碼下方二維碼加入【AING硬跡產(chǎn)業(yè)交流群】。
AING硬跡
AING,取自“AI+ING”的縮寫,中文諧音“硬跡”,寓意著“人工智能正當(dāng)其時”,致力于追尋硬科技發(fā)展的足跡,不斷探索人工智能與智能硬件的深度融合。
未來,AING硬跡將不斷發(fā)布AI大模型技術(shù)、AI產(chǎn)業(yè)生態(tài)、AI硬件產(chǎn)品等行業(yè)資訊、發(fā)展趨勢與市場動態(tài),我們相信大多數(shù)硬件都值得用AI重做一遍,AING硬跡期望與AI大模型廠商、與AI硬件廠商共同成長,迎接AI時代的來臨。
![]()
人工智能正當(dāng)時
一起追尋AI+硬件的足跡
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.