信息無損Token最高節省87%,一款省Token神器正在GitHub躥紅。
短短3天,純靠口口相傳,GitHub總攬星4.1K,增長曲線更是堪比“旱地拔蔥”:
![]()
連開發這個項目的19歲外國小哥也懵了,直呼屬實沒想到。
本來是自己隨手花10分鐘寫的一個“joke”,結果卻意外受到大家的追捧。
![]()
他之所以將其稱為“joke”,也實在是因為這個名為caveman(山頂洞人)的項目,背后原理過于簡單:啰嗦并不總是更好,有時字數少=更正確。
沒錯,這個給Claude Code/Codex用的插件,核心目標就是讓Agent“像山頂洞人一樣說話”(俗稱言簡意賅)。
比如明明給的解決方案一樣,普通Claude需要用一大段話來描述:
(翻譯)你的React組件之所以會重新渲染,很可能是因為你在每次渲染周期中都創建了一個新的對象引用。當你將一個內聯對象作為prop傳遞時,React的淺層比較會認為它每次都是一個不同的對象,從而觸發重新渲染。我建議你使用 useMemo 來緩存該對象。
而caveman則相當簡潔:
(翻譯)每次渲染都會創建新的對象引用。內聯對象作為prop傳遞=新的引用=觸發重新渲染。用useMemo包裹起來即可。
初步測試顯示,它在保持完全技術準確性的同時,將輸出Token減少約75%。
此外還有一個配套工具,可以壓縮用戶的記憶文件,從而將每次會話的輸入Token減少約45%。
目前這個插件在支持skills的環境中,已經可以一行安裝:
- npx skills add JuliusBrussee/caveman
“有時少數Token就夠了”
老實說,讓Agent學會言簡意賅從而節省Token的想法,也不是第一天出現了。
開發caveman的小哥就提到,今年3月的一篇論文已經發現:
通過簡潔性約束(強制簡短回答),大模型的準確率提升了26個百分點,而且在數學推理和科學知識基準上,完全逆轉了性能層級(原本大模型不如小模型,結果后來反超了)。
![]()
所以小哥就說了,caveman的誕生就源于這樣一個人所共知的觀察——
“山頂洞人式表達”(caveman-speak)能大幅減少大語言模型的Token使用量,同時不損失技術實質內容。
來看一組Before/After你就明白了:
![]()
表達同樣一個修復任務,正常Claude需要用到69個Tokens,而caveman只需要19個。
Token一下子就節省了約75%,且不影響Agent理解任務需求以及給出解決方案。
據小哥介紹,caveman會完全保留以下內容:
代碼塊、行內代碼、URL、文件路徑、命令、標題、表格結構、日期、版本號等。任何技術性內容都保持原樣通過,只有自然語言文本會被壓縮。
換言之,只有一些不必要的廢話會被丟掉。(p.s:之前Claude Code一句“你好”就干掉13%的額度)
![]()
當然,你還能自己控制Agent的簡潔程度,從啰嗦到極簡(Lite→Full→Ultra)任你選。
- Lite:刪掉客套話和廢話,保留基本語法結構;
- Full:caveman標準版,會省略“一個”、“這個”之類的冠詞,句子只說關鍵詞片段,偶爾會配上一些簡短的語氣詞,說話風格有點像山頂洞人;
- Ultra:極致壓縮模式,能省則省。
![]()
至于究竟能節省多少Token,小哥也在真實的Claude API上測試了一下(可復現)——
10個任務,最終節省的Token范圍為22%–87%,平均下來高達65%。
具體任務包括但不限于:解釋React重渲染bug、修復認證中間件Token過期問題、設置PostgreSQL連接池、解釋git rebase與merge的區別、重構回調為async/await……
![]()
不過小哥也提醒,caveman僅影響輸出Token,思考/推理Token不受影響。
caveman不會讓大腦變小,會讓嘴巴變小。最大的勝利是可讀性和速度,成本節約是額外的好處。
具體安裝方式如下:
如果你用的是
Cursor/Copilot/Windsurf/Claude Code這類AI編程工具,在支持skills的環境中,可以一行安裝:
- npx skills add JuliusBrussee/caveman
如果你想明確裝到某個Agent,可以像這樣:
- npx skills add JuliusBrussee/caveman -a cursor
npx skills add JuliusBrussee/caveman -a copilot
npx skills add JuliusBrussee/caveman -a cline
npx skills add JuliusBrussee/caveman -a windsurf
Claude Code用戶還能這樣裝:
- claude plugin marketplace add JuliusBrussee/caveman
claude plugin install caveman@caveman
Codex相對麻煩一點,需要先clone倉庫,在項目里打開Codex,然后通過/plugins搜索Caveman并手動安裝。
裝完后,選擇caveman模式或直接說“像caveman那樣說話”“請少用一些Token”,就能召喚山頂洞人。
停止的話,也是切到正常模式或直接說“stop caveman”即可。
背后是一位年僅19歲的開發者
有意思的是,caveman的作者也相當年輕——
Julius Brussee,目前19歲,正在荷蘭萊頓大學讀大一,專業為數據科學與人工智能。
![]()
雖然剛上大學,但他已經是個比賽和創業經驗都很豐富的“老手”了(bushi。
2025年1月,他創辦了Revu Labs,主要開發Revu這款原生macOS學習應用。
簡單來說,Revu能自動把你上傳的PDF變成學習材料,然后用和多鄰國差不多的智能算法安排復習。它背后有多個Agent協同干活,同時保證數據零損壞、全本地化。
然后他又參加了埃因霍芬理工大學的創新大賽,比賽過程中構建了一個企業級知識管理平臺Stacklink。
這一次更復雜,Stacklink需要將公司分散在各處的信息(如Google Docs、Slack、Notion)全部接進來,然后統一建索引,尤其是還要考慮AI幻覺問題。
再到最近,他又聯合創辦了Pitchr這家公司,擔任產品與技術負責人。
一看Pitchr的產品,估計大家都會會心一笑,因為它是專門開發AI演講輔助平臺的(幫你更好展示PPT)。
![]()
以及履歷中暫無,但Julius自己補充的一點:
之前還創辦了Locked In(集成NFC的iOS生產力應用,首周留存率100%)和Neurabridge(曾獲經濟學人報道的AI咨詢公司)。
不過,雖然開發了這一連串項目,但caveman的意外走紅也讓Julius無限感慨:
好好好,隨手寫的“joke”火了,而我花了幾個月時間用心打磨的Revu、Stacklink……卻沒有這種待遇。
大家都很喜歡caveman這個功能。人們紛紛安裝,我笑得前仰后合。
但這里有個沒人談論的事情——我花了幾個月時間認真做的項目,在同周也獲得了認可,但關注程度卻沒那么高。我并非抱怨,只是在觀察。
傳播的關鍵在于共鳴,那個梗打開了門。真正的工作在背后。
caveman爭議也不少
當然了,caveman的走紅也不止是因為“讓AI像原始人說話”這個梗,背后也不乏一些爭議。
討論較多的有兩點:
- 大部分節省的都是輸出Token,而真正的成本是上下文輸入Token。
- 強迫大模型更簡潔是否會讓它變笨。
![]()
對此,作者也現身Hacker News評論區瘋狂疊甲:
這項技能并不是為了減少隱藏的推理/思考Token。Anthropic自己的文檔建議更多的思考預算可以提高性能,所以我不會提出相反的觀點。
它所針對的是可見的完成:更少的開場白,更少的填充內容,更少的精致但非必要的文本。因此,由于完成后的輸出被“原始化”了,代碼完全沒有受到這項技能的影響。
公平的批評是,我“~75%”的READM數據來自初步測試,而非嚴格的基準測試。這應該更謹慎地表述,我現在正在做一個正式的評估。
![]()
翻譯過來就是,降本只是附帶的、減少的是不必要的Token所以一般不會變笨。
在作者看來,caveman只是一個有趣的想法,比一些人以為的使用范圍要窄,接下來還需要更精確的基準測試。
而這,也和部分網友得出的結論差不多:
因為有趣和真正聰明地減少了輸出Token而獲得A+。
但它不是降低總成本的靈丹妙藥,可能會讓Claude的智商下降幾個點。
![]()
所以,有試過的朋友分享下感受如何嗎(觀望.jpg)?
GitHub:
https://github.com/JuliusBrussee/caveman
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.