![]()
2026年3月,Cloudflare工程師博客更新了一條技術公告:Dynamic Workers正式上線。這不是常規的功能迭代——他們要把AI生成代碼的執行延遲,從"喝杯咖啡等結果"壓到"眨眼的功夫"。
數據很直白:傳統AI代理架構里,大模型每步推理都要走網絡往返,token費用像漏水的水龍頭。Cloudflare的新方案直接讓LLM一次性寫完執行腳本,推理成本最高砍掉80%。
ReAct模式:AI代理的"擠牙膏"困境
現在主流的AI代理都在用ReAct范式(推理-行動循環)。LLM發現需要調用工具,就停下來發請求,等后端執行完再把結果塞回上下文窗口,接著推理下一步。循環往復。
這套流程的問題在于網絡延遲會疊加。每一步都要重新發送完整對話歷史,token賬單跟著步驟數線性膨脹。你的AI代理不是在思考,是在刷你的信用卡刷得很慢。
Cloudflare和前沿AI研究者盯上了另一個思路:讓LLM直接寫執行邏輯。給模型API schema,讓它生成一段TypeScript或JavaScript函數,把所需操作串成管道。Cloudflare內部管這叫"Code Mode"。
一次性生成執行腳本,LLM只 invoked(調用)一次,而非反復 invoked 來推進計劃。
容器方案的"穿幫時刻"
Code Mode理論上很干凈,但執行未經驗證的AI生成代碼是顆雷。傳統做法是用Linux容器或微虛擬機做沙箱隔離,這里暴露了老架構的致命傷。
容器啟動以秒計,冷啟動成本直接吃掉延遲優勢。安全沙箱本身就成了性能瓶頸——你為了安全付出的代價,恰好抵消了讓LLM寫代碼省下來的時間。
Cloudflare Dynamic Workers的解法是把Linux容器換成即時創建的輕量V8 isolate。V8 isolate是Chrome同款JavaScript引擎的隔離單元,啟動時間在毫秒級,內存占用只有容器的零頭。
Dynamic Workers的三張底牌
零冷啟動。 V8 isolate的創建和銷毀速度讓容器看起來像蒸汽機車。AI代理收到用戶請求的瞬間,執行環境已經就緒。
成本結構重構。 省下的不只是token費用。容器編排的復雜度、安全補丁的維護成本、預置環境的閑置開銷,全部被打包進Cloudflare的邊緣網絡托管。
攻擊面收縮。 V8 isolate的設計初衷就是跑不可信代碼。每個isolate有獨立的堆內存和全局對象,逃逸漏洞的歷史記錄比容器少一個數量級。
Cloudflare在公告里放了一個對比:同樣執行AI生成的數據處理腳本,Dynamic Workers的P99延遲比AWS Lambda容器方案低兩個數量級。具體數字沒公布,但"兩個數量級"在工程師語境里通常是100倍起步。
動手搭建:從schema到沙箱
實際部署比想象的要輕。核心流程三步:定義API schema,寫prompt讓LLM生成符合schema的函數,把函數丟進Dynamic Worker執行。
schema設計是關鍵。你需要讓LLM明確知道哪些端點可用、參數類型、返回值結構。Cloudflare的示例用了Zod做運行時校驗,生成代碼先過類型檢查再進isolate。
安全層不能省。即便V8 isolate本身有隔離性,Cloudflare還是加了代碼靜態分析和執行超時熔斷。AI生成的代碼可能死循環,也可能試圖訪問未聲明的API——這些都要在進沙箱前攔住。
一個細節:Dynamic Workers支持把執行結果直接流回LLM做后續處理,或者緩存到Workers KV供其他服務消費。這意味著你可以把"生成代碼-執行-存結果"整條鏈掛在邊緣節點,離用戶物理距離最近的地方跑完全程。
Cloudflare工程師在博客評論區回復了一個用戶問題:如果LLM生成的代碼有bug怎么辦?回答是"和調試普通TypeScript一樣,日志和堆棧追蹤全給你"。這暗示了另一個設計選擇——Dynamic Workers的執行環境和標準Workers共享同一套可觀測性工具,沒有額外的學習成本。
現在的問題是:當你的競爭對手還在用ReAct模式數著token賬單時,你愿意把AI代理的執行邏輯交給LLM一次性寫完嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.