本來都不想寫了,
但是發(fā)現(xiàn)Coze接入了新的豆包2.0,馬上爬起來了。比起上次更新,除了網(wǎng)頁應(yīng)用,移動應(yīng)用和小程序開發(fā)外,扣子編程還支持一鍵部署OpenClaw,在上面創(chuàng)建的skills也能加載過去。
![]()
https://code.coze.cn/
OpenClaw我也出了很多安裝版本了,要安裝的都安上了,最近的新問題是太耗token了,就算用Coding plan或者Antigravity Tools每五個小時刷新一次額度也頂不住。
![]()
扣子編程+豆包2.0這次給出的方案就能省不少錢,高階版也就是一個云服務(wù)器一個月的價,但可以部署兩個OpenClaw項(xiàng)目,部署后是持續(xù)在線的,先消耗的也是扣子編程帶的模型積分,一魚兩吃。
OpenClaw(扣子編程版)里內(nèi)置了自由切換火山方舟Coding Plan的模型,聯(lián)網(wǎng)搜索和生圖的Skill,雖然不知道他們會不會接入Seedance 2.0,但我覺得現(xiàn)在的生態(tài)位是非常好的。
今天我跟扣子編程一拍即合,用8個Skills給OpenClaw省錢。
這次所有的Skills的安裝包我都打包好成文檔了,公眾號回復(fù) 豆包2 就好
先說說豆包2.0,
這個系統(tǒng)包括了Pro,Lite,Mini三款通用Agent模型加一個Code模型,
![]()
來自@賽博禪心的圖,Seed2.0 Pro vs GPT-5.2 High· Claude Opus-4.5 ·Gemini-3 Pro High
我用人話快速講講,
Seed2.0 Pro在19個和看圖推理,算數(shù)推理的測試?yán)铮?2個拿了第一。看圖識別,讀文檔,長文本理解這些項(xiàng)目里都是SOTA(State of the art)。
在EgoTempo的分?jǐn)?shù)超過了人類平均,這個測試是給模型一段第一視角視頻,再問一些必須看完整段視頻才答得出來的問題,專門卡那些只靠單幀截圖或常識瞎猜就能混過去的模型。
![]()
所以我給他丟了一個15s的馬里奧賽車游玩視頻傳到扣子,讓豆包2.0 Code做一個像素版出來。
常規(guī)的科學(xué)能力上到了Gemini 3 Pro和GPT-5.2的同一檔位。這次我在用它配置省錢版OpenClaw的時候,還發(fā)現(xiàn)了它的搜索能力其實(shí)是比之前有了比較大的提升,
比方說,我是在用Grok去搜索省錢的Skill,有一些Skill的gihtub鏈接是錯誤的,名字和github里的功能對不上,它可以通過名字在安裝的過程中幫我找到正確的鏈接。
所以我用扣子編程額外做了一個OpenClaw的教程網(wǎng)站,不是單一頁面,里面的鏈接都是能夠點(diǎn)開的。
因?yàn)镺penClaw變成了開箱即用,根本不需要說要怎么安裝。在扣子編程上就是點(diǎn)開點(diǎn)確認(rèn),就部署完了,模型,聯(lián)網(wǎng),生圖都是默認(rèn)的。
同一個頁面上,左側(cè)用豆包2.0(我當(dāng)作一個claude code來用),右側(cè)用OpenClaw
我整理了X上大家這段時間用最多的Skills,選出來九個來搭配著省錢,
![]()
先把浪費(fèi)的token堵住,
Cost Optimisation Skill核心做的就是三件事,該用便宜模型的任務(wù)就別上貴的,能緩存就別重復(fù)算,能本地跑就別走付費(fèi)API。相當(dāng)于我不需要反復(fù)去調(diào)整 OpenClaw 默認(rèn)的模型,經(jīng)過這個Skill的配置,我可以讓它均衡地把任務(wù)分配在便宜的模型跟貴的模型上。
token的大頭開銷還來自上下文,尤其是我用久了有一堆筆記和文件的時候。qmd-skill做的就是它不把整篇筆記塞給模型,只吐出100到300token的相關(guān)片段。
幫我給openclaw安裝qmd-skill和Cost Optimisation Skill
![]()
但是因?yàn)閝md是依賴本地模型的,
所以我用豆包2.0二次開發(fā)這個Skills,讓qmd可以用上API提供embedding模型。
![]()
其他Skill的安裝也是同理,我就不一個個安了,直接梭哈讓豆包2.0做,
幫我安裝Cost Optimisation Skill,supermemory,x-research-skill,browser-use,proactive-agent-1-2-4,prompt-guard,dont-hack-me和find-skills
![]()
supermemory的省錢點(diǎn)是每次對話前只拉和當(dāng)前問題相關(guān)的記憶,對話后再把新信息提煉存起來。這樣就不需要長期把大文件或長對話全塞進(jìn)上下文。
x-research-skill和browser-use是對原有的聯(lián)網(wǎng)搜索的補(bǔ)充,相當(dāng)于把需要翻網(wǎng)頁的工作做完,然后把結(jié)果壓縮成報(bào)告再喂給模型。
browser-use可以把心跳和部分交互留在本地,減少在線調(diào)用。proactive-agent-1-2-4會不停反思進(jìn)步,讓任務(wù)一次做對的概率更高。
這幾個是我目前用最多的,因?yàn)槭窃谠贫宋疫€額外安裝了兩個安裝Skills,
prompt-guard和dont-hack-me,
一個是防被提示注入帶偏,導(dǎo)致Agent跑一堆沒用任務(wù),另一個是把帶后門、亂請求外部API、亂讀文件的Skill揪出來,避免出現(xiàn)異常調(diào)用和泄露導(dǎo)致的額外損失。
所以嚴(yán)格意義上來說,想要在扣子編程里面使用省錢版的OpenClaw,只需要兩步:
1.點(diǎn)開OpenClaw的自動安裝
2.用豆包2.0 Code把這一大堆 Skill 安裝上來
把它部署持久化之后,你就可以把OpenClaw接入飛書,在外面直接使用它。
![]()
庫茲庫茲也用了一天了,
我的感受就是以后我們可以用在OpenClaw,
用在Claude Code上面的國產(chǎn)模型又多了一個,
而且它的API也夠便宜,
比海外模型低了一個數(shù)量級
我是很高興能在年前在扣子編程上又收獲一個OpenClaw新的打開方式,唯一難受的可能就是我的OpenClaw了,
既然價格已經(jīng)不再是問題了,
那它就已經(jīng)是勞模了,
7*24小時上班吧,
話說過年期間,
字節(jié)應(yīng)該不會再發(fā)大招了吧,
Seedance2.0,Seedream5.0,Seed2.0,
這三件套夠用好久了。
@ 作者 / 卡爾
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.