商悟社|張志雪
3月17日,2026亞布力論壇年會現場,宇樹科技創始人王興興的一句話,直接炸翻了科技圈和創投圈。
![]()
作為本屆亞布力論壇新理事,王興興登臺就拋出兩個重磅判斷:一是今年年中,中國人形機器人百米成績能跑進10秒,超越博爾特;二是字節跳動1月發布的Seedance 2.0,是目前全球最好的視頻生成模型,沒有之一,全球遙遙領先。
這話一出,全網都在問:Seedance 2.0到底牛在哪?能讓做機器人的王興興,公開盛贊“全球第一”?
先給大家扒一扒這款模型的核心硬實力,全是干貨,看完你就懂為什么王興興這么推崇。
Seedance 2.0的核心殺手锏,就兩個字:可控。
傳統AI視頻生成,要么音畫不同步,要么動作僵硬,要么只能生成幾秒鐘的片段,想做個完整劇情視頻,得反復修改、后期拼接,效率極低。但Seedance 2.0直接打破了這些痛點。
它采用雙分支擴散變換器架構,簡單說就是視覺和音頻并行生成,不是先出畫面再配音頻,從底層解決了音畫割裂的問題。你輸入“老人護理機器人協助翻身,背景是醫院走廊,輕柔背景音樂”,模型能直接生成完整60秒視頻,嘴型精準匹配、微表情自然、背景音樂無縫嵌入,省去了傳統流程里配音、對口型、混音的一堆麻煩。
更離譜的是它的多模態全能參考能力。支持文字、圖片、音頻、視頻四種模態混合輸入,最多能同時參考9張圖、3段視頻、3段音頻,總共12個參考文件。你想做個遙控紙飛機的AI演示視頻,直接丟一段無人機飛行視頻、一張紙飛機圖紙、一段操作語音,模型就能生成高保真的演示畫面,運鏡、特效、氛圍全給你拿捏到位。
宇樹科技內部測試數據更能說明問題:用Seedance 2.0生成機器人干活視頻,再通過視頻對齊技術讓機器人復現動作,新任務學習周期從2周縮短到2小時,效率直接提升168倍。
這就是王興興反復強調的核心邏輯:先讓AI在“大腦”里生成機器人干活的視頻,再把視頻轉化為真實動作。
以前機器人學一個新技能,得靠工程師寫代碼、調參數,周期長、成本高。現在有了Seedance 2.0,只要生成一段高質量的任務視頻,機器人就能直接“看懂”并學會,門檻直接降到普通人都能參與的程度。
王興興說得特別實在:“如果生成視頻的質量非常好,某種意義上,我只要把這個視頻對齊到我的機器人上,它就可以去干活了。”
這可不是空談。宇樹現在的機器人,已經能完成1500米、400米、4×100米障礙賽,碾壓人類選手;搭載自研M107高功率密度關節電機,攻克了高速奔跑的重心分配和抗沖擊難題。再加上Seedance 2.0的加持,機器人從“會動”到“會干活”的距離,直接被大幅縮短。
當然,王興興也沒盲目吹爆。他也坦誠,目前具身智能軟件還是“差一點火候”,視頻生成內容和機器人實際動作的精準對齊,還是全球共性難題;機器人在陌生場景的泛化能力,也還有很長的路要走,具身智能的“ChatGPT時刻”,還需要2-3年。
但這絲毫不影響Seedance 2.0的劃時代意義。它不是簡單的視頻生成模型升級,而是打通了AI“虛擬創作”和機器人“現實落地”的關鍵橋梁。
對普通人來說,這意味著什么?
以后你想做個科技玩具的演示視頻,不用找專業團隊,用Seedance 2.0就能生成高清、逼真的內容;以后家里的清潔機器人、陪護機器人,不用等廠家更新固件,通過生成任務視頻就能學會新技能;以后甚至能自己給機器人“編程”,讓它干你想讓它干的活。
對整個行業來說,這更是顛覆性的。視頻生成成本的大幅降低,會加速具身智能的落地速度,讓機器人從實驗室走向千家萬戶,真正迎來爆發式增長。王興興預判,一旦具身智能達到臨界點,宇樹的出貨量可能直接飆升到一年幾百萬臺。
現在回頭看王興興的發聲,不只是夸字節,更是在給整個行業指方向:視頻生成+具身智能,是當下最值得押注的賽道。
字節的Seedance 2.0,只是一個開始。當更多企業加入這場競賽,當技術不斷突破,我們或許真的能在不久的將來,看到滿大街會干活、會協作的智能機器人。
你覺得Seedance 2.0的出現,會讓機器人提前走進普通人的生活嗎?評論區聊聊你的看法。
商悟社由資深媒體人張志雪創辦,全平臺內容分發,全網百萬粉絲,若轉載請寫明來源。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.