大家好,我是冷逸。
今天,LiblibA發布了一個全新的AI視頻創作平臺「LibTV」。
![]()
不同于過往其他產品的發布,這次他們推出了兩個版本,一個給人類用,一個給Agent用。
人類點這里??:www.liblib.tv
Agent點這里??:github.com/libtv-labs/libtv-skills
給人類用的「LibTV」,如果大家有用過類似的畫布產品(比如Lovart),相信應該并不陌生。
今天,我想重點跟大家聊的是,他們的另一個給OpenClaw用的「libtv-skills」。
![]()
在我體驗了用龍蝦來制作視頻后,真的回不去了。
這種感覺就像是,我躺在床上刷視頻一樣,龍蝦就是B站,而「libtv-skills」就是UP主,我只負責給UP主刷火箭、充Token,就會有源源不斷的視頻喂給我。
是的,我們正在見證一個Agent與人類成為平等用戶的AI新時代。
![]()
怎么給接上LibTV Skill?
首先,我們需要有一只蝦,以及給蝦同步消息的IM平臺(比如飛書)。
如果朋友你還沒有蝦,可以在我們這里領一只:
我今天測試用的是澳龍(AutoGLM),嗯,“澳洲龍蝦”應該還挺靠譜的吧。
然后,就告訴你的龍蝦:
給我安裝這個skills:https://github.com/libtv-labs/libtv-skills
![]()
如果是本地龍蝦,也可以通過npx手動安裝。
npx skills add libtv-labs/libtv-skills --skill libtv-skill安裝skill后,但這個時候還不能用,我們還得給它接上神秘的access_key。
簡單來說,access_key就是你在「LibTV」上充的算力密鑰,請記得給skill準備充足的“口糧”。
我們直接去liblib.tv官網登錄賬號,把鼠標移到右上角頭像,在賬戶/設置區域,找到并復制上你的access_key。
![]()
拿到key后,我們回到小龍蝦里面,告訴它:
這是libtv的access_key:xxxx,請幫我設置環境變量。
![]()
如果是本地龍蝦,也可以直接輸入這行命令來配置。
export LIBTV_ACCESS_KEY="your-access-key"然后,重啟龍蝦,就可以調用這個skill了。
我們先隨便跑一個任務,試下效果。
提示詞:給我做一個30s的漫劇,講述龍蝦版《掩耳盜鈴》。
龍蝦會立刻調用LibTV Skill創建任務,開始創作。
![]()
在任務完成后,它會給出一個LibTV Project鏈接,可以看到完整的創作過程。
![]()
左邊是OpenClaw會話,右邊是LibTV畫布結果
有點遺憾的是,目前還不能實時看到龍蝦創建工作流的過程,只能等任務結束后看最終的結果。
但是龍蝦的工作過程,我們還是可以隨時監控的,直接給它來上這樣一句指令:
每隔 30 秒給我匯報一次創作進度。
它就會定時給你匯報創作進度,看看任務進行到哪里了。
![]()
來看下最終的成品。
完成得還不錯,聲畫同出,劇情連貫,人物主體的一致性也保持得不錯。
那這……它天然適合在飛書上搞創作啊。
于是,我給了龍蝦一張圖(需提前在飛書開放平臺給機器人開通上傳文件和獲取文件的權限),讓它理解這張梗圖并制作一支短視頻。
![]()
龍蝦很快就懂了這個梗。
![]()
然后給我做了一個五格視頻,還有配音。
這視頻質量真不錯,感覺我再整個炸裂一點的封面文字,就可以直接拿去發視頻號了。
理論上,你還可以給它發視頻、發音樂,讓它復刻生成視頻,或者根據音樂配個MV。
當然,也要取決于你的龍蝦用什么模型。像這類考驗模型多模態理解能力的任務,建議優先用Gemini 3.1、K2.5、GLM-5-Turbo和Qwen3.5-Plus。
整個體驗下來,我感覺用龍蝦+LibTV做短片真的太爽了。
LibTV這個Skills,直接把視頻的創作門檻打到了老奶奶級別。
└── upload_file.py # 上傳圖片 / 視頻文件到 OSS不需要你去搭什么復雜的工作流,也不需要你去配什么API,直接一個key搞定。甚至連配置都不用你管,直接把url和key丟給龍蝦,讓它幫你搞。
所以,我才在一開始就說,體驗了這種用做視頻的爽感后,就真的回不去了。
![]()
LibTV有些什么?
除了Skills,他們這次推出的liblib.tv也值得說道說道。
它其實并不復雜,也是一個畫布式產品,體驗過類似產品的朋友,應該并不陌生。
但LibTV有一些新的東西。
1)20+創作功能
首次打開畫布,你會看到默認4種創作模式:腳本生成、角色三視圖、圖生視頻、音頻生視頻。
![]()
當然,也可以雙擊畫布,自由選擇節點進行創作。
![]()
左側邊欄,工具箱里預設了很多鏡頭模板,都可以自由選擇。
![]()
這一套很適合專業視頻創作者,甚至有些功能還是首次推出。
比如:9/25 宮格分鏡生成、一鍵生成完整故事板、劇情推演四宮格、快速測試不同劇情走向、多機位9宮格鏡頭設計、模擬真實影視機位調度、角色三視圖生成、快速建立穩定角色設定、畫面時間推演(自動生成前3秒/后5秒畫面延展)。
對于專業創作者來說,這一套整個組合起來確實是利器,可以幫我們快速拉起一套視頻創作的流程。
2)30+頂流模型
模型這塊,也是蠻多的。
我數了下,大概有30多款,幾乎涵蓋了目前市面上從經濟到性能各個段位的主力模型。
![]()
像可靈O3、可靈3.0、Pixverse V5.5、Wan 2.6、Vidu Q3 PRO、Seedance 1.5、hailuo 2.3、Video 3.1這些頂級的模型,都在里面。
別問為什么Seedance 2.0不在里面啊,因為人家壓根就沒開放API。如果開放了,我相信LiblibAI應該也會第一時間接入進來。
這還只是視頻領域。生圖的話,像Nano Pro、Seedream 5.0、Midjourney V7、Qwen Image這些頂級模型,也都在里面。
![]()
3)無限畫布
創建一個新項目后,LibTV會提供了一張無限畫布的創作界面。
從劇本、分鏡到視頻生成、剪輯和畫面優化,都可以在這張畫布里完成。
比如,這是一個汽車廣告的創作過程,它的畫布節點可以做到如此之多。
![]()
下面,我們來看幾個視頻,全都是一些創作者通過LibTV完成的。
法天象地(by創作者@北邦)
MV《Not your doll》(by創作者@urey柚梨)
手機宣傳片(by創作者@掙錢養菜菜)
整體看下來,我感覺LibTV大概率是現階段最適合專業創作者和Agent的AI視頻工具。
感興趣的朋友,可以前往這2個地址體驗。
官網:https://www.liblib.tv
github:https://github.com/libtv-labs/libtv-skills
![]()
據了解,這是LiblibAI推出的第一款AI視頻產品。
一款產品,同時打開了兩扇正門。
一扇,是提供給人類創作者使用的專業GUI入口,畫布、節點、分鏡、編輯……所有專業創作者想要的精細控制,都在這里。
另一扇,則是專門提供給Agent使用的Skill入口,它通過Skill接口理解任務、調用模型、編排工作流、自動生成視頻。
如果我沒記錯,這應該是視頻創作領域第一款從Day 1起就把人和Agent當作兩個平等用戶來設計的產品。
過去,所有的產品都在瘋狂研究如何讓人類更易理解、更易操作。
而現在開始,我們的產品還要同時研究如何讓Agent更容易調用。
這事,想想就挺有意思的。
沒想到,今天能夠親眼見證。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.