![]()
![]()
翼言商業(yè)觀察
是破局突圍,還是刻舟求劍?
在硅谷當下的宏大敘事中,算力即權力。
英偉達的 GPU 似乎成了通往AGI唯一且昂貴的門票。當整個行業(yè)都在狂熱地堆疊“更大、更貴、更耗電”的 GPU 集群時,一種極具顛覆性的底層技術叛逆卻在暗處悄然發(fā)生。
![]()
近日,一家成立不到三年、位于多倫多的初創(chuàng)公司 Taalas 拋出了一個讓半導體與 AI 業(yè)界側(cè)目的方案:他們將 Meta 的 Llama 大模型直接“硬連線”(Hardwired)進了 ASIC(專用集成電路)芯片。 這并非一次常規(guī)的硬件制程升級,而是一場物理層面的暴力重構。
由Tenstorrent前聯(lián)合創(chuàng)始人Ljubisa Bajic帶隊的這群工程師,不再依賴昂貴的HBM顯存,拋棄了液冷:模型不再是以軟件代碼的形式運行在通用硬件上,也不再需要頻繁地從高帶寬顯存(HBM)中吞吐成百上千 GB 的權重數(shù)據(jù)。Llama 龐大的神經(jīng)網(wǎng)絡結構和數(shù)十億參數(shù),被直接固化進物理電路,成為了芯片本身——芯片即模型,模型即芯片。
在這塊采用臺積電6納米工藝、面積達815平方毫米的芯片上,單用戶運行Llama 3.1 8B的推理吞吐達到了令人瞠目的17,000 tokens/秒。作為對比,這個速度是英偉達最頂尖GPU的數(shù)十倍,是人類閱讀或思考速度的成百上千倍。生成一部詳盡的二戰(zhàn)逐月編年史,僅需0.138秒。
這一反常識的技術路線,究竟是打破算力瓶頸的終極突破,還是無視模型迭代規(guī)律的“刻舟求劍”?
一、歷史的鐘擺
天下苦“內(nèi)存墻”久矣
Taalas 之所以做如此激進的嘗試,是因為當前 AI 產(chǎn)業(yè)有一個隱疾:內(nèi)存墻(Memory Wall)。
自計算機誕生以來,統(tǒng)治整個行業(yè)的基石是“馮·諾依曼架構”,其設計中就存在計算與存儲分離的特點:需要計算時,就從后臺把數(shù)據(jù)搬運到舞臺上,算完再搬回去。
![]()
在模型只有幾兆、幾十兆的時代,這個架構運轉(zhuǎn)良好。但是,當大語言模型膨脹到幾百億、上千億參數(shù)時,這一經(jīng)典架構正在成為最大的絆腳石。GPU 運行大模型進行推理時,它并沒有把大部分精力花在計算上,而是被迫變成了一個疲于奔命的“搬運工”——海量的模型權重數(shù)據(jù)需要在顯存和計算單元之間來回穿梭,高達 80% 的功耗和延遲都浪費在了這種數(shù)據(jù)的物理搬運上。這不僅造就了英偉達龐大的護城河,也直接捧紅了價格極其昂貴的 HBM 存儲芯片。AI行業(yè)苦“內(nèi)存墻”久矣,它讓 AI 推理的成本居高不下,讓數(shù)據(jù)中心變成了吞噬電力的巨獸。
Taalas 的 ASIC 路線,本質(zhì)上是對這筆“算力稅”的徹底逃避。當模型權重不再是以數(shù)據(jù)的形式存在于內(nèi)存中,而是變成了固化的晶體管開閉狀態(tài),數(shù)據(jù)搬運的動作就在物理層面上被抹除了。
二、絕對速度與“電子牛馬”
商業(yè)落地的場景價值
Taalas打破內(nèi)存墻帶來的最直接后果,是成本和能效比的恐怖斷層。
![]()
傳統(tǒng)的GPU數(shù)據(jù)中心是名副其實的“電老虎”,動輒需要液冷伺候。而Taalas的HC1芯片,單顆功耗僅約250W。即使部署10顆芯片,總功耗不過2.5千瓦,僅靠常規(guī)的空氣冷卻就能穩(wěn)定運行。根據(jù)Taalas官方及業(yè)界測算,其百萬Token的推理成本僅為0.0075美元左右,是傳統(tǒng)GPU方案的二十分之一甚至更低。在“唯快不破”和“降本增效”成為行業(yè)鐵律的今天,這組數(shù)據(jù)的沖擊力毋庸多言。
從工程學的角度來看,這顯然是一次驚人的效率躍升;而在模型快速迭代的今天,一個不能更新、不能運行其他模型的芯片,聽起來顯然又像個笑話。但是,如果我們跳出“打造全知全能AGI”的宏大敘事,將目光投向海量的商業(yè)垂直場景,也許會發(fā)現(xiàn),這種“固化”非但不是缺陷,反而可能是某些場景下的最優(yōu)解。
在真實的商業(yè)世界里,并非所有場景都需要一個通曉量子力學、能寫莎士比亞十四行詩的GPT5甚至更新的模型。大部分場景需要的,是一個極其穩(wěn)定、便宜、速度極快且不需要休息的“電子牛馬”。
![]()
想象一下工業(yè)流水線上的毫秒級殘次品視覺識別、智能汽車里需要絕對零延遲響應的端側(cè)語音中樞、數(shù)以億計的家用陪伴機器人或兒童玩偶……在這些場景中,企業(yè)根本不在乎你能否兼容最新的大模型框架,他們在乎的是:能不能用幾美分的成本,把手頭這件特定的任務做到光速?
Taalas的HC1,正好可以解決這種“規(guī)模化單一任務”。當17,000 tokens/秒的速度應用在語音助手上,AI的回答將比人類的神經(jīng)反射還要快,“等待LLM思考”的轉(zhuǎn)圈動畫將徹底成為歷史。一個原本需要幾百瓦功率、必須插在液冷服務器上的大模型,未來也許只需幾瓦的電量,就能被輕易塞進一臺掃地機器人、一部智能手機,甚至是一副輕薄的AI眼鏡中。真正的“萬物皆 AI”,也只有在算力和功耗被極度壓縮后才可能實現(xiàn)。
三、刻舟求劍的隱憂
被“凍結”在芯片里的智慧
盡管如此,鑒于當前 AI 算法一日千里的演進速度,Taalas 的路線極具風險的另一面也是不容忽視的。將流動的軟件代碼固化為冰冷的物理電路,意味著犧牲了靈活性。這里有兩個極其尖銳的現(xiàn)實錯位。
首先是迭代周期的錯位。如今,開源大模型的進化是以“月”甚至“周”為單位的。但一顆先進制程的芯片,從架構設計、流片到最終量產(chǎn),通常需要 18 到 24 個月。而當它走下產(chǎn)線時,它所“凍結”的 Llama 模型,在日新月異的算法世界里,是否已經(jīng)淪為一個落后的“古董”?
再者是容錯率的錯位。大模型如果出現(xiàn)嚴重的幻覺或安全漏洞,可以通過微調(diào)或推送 OTA 補丁來迅速修復。但是,一塊已經(jīng)刻好物理電路的芯片該怎么打補丁呢?一旦芯片內(nèi)固化的模型存在致命缺陷,整批昂貴的芯片大概率只能淪為硅垃圾。
對于這些致命的商業(yè)風險,Taalas也給出了他們的防守策略。首先是微調(diào)的保留, HC1雖然鎖死了基礎權重,但依然保留了對低秩自適應(LoRA)微調(diào)的支持。這意味著企業(yè)可以在物理大模型的外部,外掛小型的“知識補丁”來調(diào)整特定任務的表現(xiàn)。其次是極速的物理迭代,Taalas CEO 透露,改變模型并不需要重新設計整個底層硅片,而只需更改芯片最上層的兩層金屬層。這種制造工藝的創(chuàng)新,將新模型的硬件化周期壓縮到了驚人的兩個月,從而幫助模型實現(xiàn)小幅迭代。
縱然如此,這依然是一場與時間賽跑的豪賭。在這場博弈中,Taalas試圖用硬件的極致靜態(tài),去捕捉 AI 算法的極致動態(tài),不可避免地帶有一些“刻舟求劍”的悲壯色彩。
四、蝴蝶效應
誰在戰(zhàn)栗,誰在狂歡?
盡管局限性很明顯,但Taalas這種“模型即芯片”的路線的面世,依然撕開了英偉達絕對壟斷帝國的一道裂痕。
英偉達的地位,很大程度上歸功于其CUDA軟件生態(tài)。全世界的開發(fā)者都在用CUDA寫程序,這使得硬件的壁壘變成了堅不可摧的軟件生態(tài)壁壘。但是,如果AI的盡頭不再需要軟件呢?
![]()
Taalas的路線意味著,在推理這個占據(jù)未來AI算力90%以上份額的市場中,CUDA的護城河被徹底繞過了。模型訓練依然離不開英偉達的GPU,但在最終落地應用的端側(cè)和專業(yè)推理數(shù)據(jù)中心,ASIC專有芯片正在掀起一場“去英偉達化”的起義。
另外,隨著生成式AI加速進入商業(yè)落地,Taalas之外,Groq、Cerebras、Etched等公司也分別在極速響應、海量吞吐、特定算法加速方面進行著不同的探索,都有可能一點點蠶食推理市場,撼動曾經(jīng)固若金湯的英偉達帝國。
同時,存儲巨頭的狂歡也極可能降溫。目前,HBM芯片是存儲行業(yè)的超級印鈔機。但如果模型權重被內(nèi)化于電路,對龐大顯存的依賴將大幅降低。無存算分離架構一旦普及,存儲廠商在 AI 時代的暴利預期將被大幅擠壓。
正因如此,Taalas將大模型刻進硅片,絕不是AI算力的終點,在不遠的未來,我們也許會看到算力市場的明顯分化:
云端與訓練場依然是英偉達GPU和通用加速器的天下,用于探索AGI的智力邊界,處理那些最復雜、最多變的未知任務。
端側(cè)與流水線則是Taalas這類“物理硬化”芯片的汪洋大海,它們?nèi)缟匙影惚阋耍绻馑侔忝艚荩瑵B透進每一個路燈、每一臺家電、每一個工業(yè)機器人中。
甚至,當我們把目光放得更長遠一些,當量子計算真正走向?qū)嵱茫蛘哳惸X計算實現(xiàn)突破時,今天我們?yōu)榱送黄岂T·諾依曼架構所做的所有努力,可能都會成為技術史上一次次充滿勇氣而又略顯笨拙的嘗試。
結語
從“全能大腦”到“硬件本能”
計算架構的演進從來不是單向的直線,而是螺旋上升的復調(diào)。從早期的專用打孔機,到通用CPU,到專為圖形處理誕生的GPU,再到如今的AI ASIC,計算的歷史,就是在“通用靈活性”與“專用極致效率”之間不斷搖擺的過程。
Taalas的探索,或許在今天看來略顯激進,甚至面臨“出廠即落后”的窘境,但它向我們拋出了一個極具哲學意味的產(chǎn)業(yè)命題:
AI的終極演化形態(tài)究竟是什么?
它是否必須永遠保持像水一樣可以隨意重塑的“通用軟件大腦”?
還是說,就像生物歷經(jīng)億萬年進化一樣,AI 也會將其最基礎、最成熟的智能(比如基礎的視覺識別、語言邏輯解析),內(nèi)化為無需思考、極低功耗運行的“硅基硬件本能”?
![]()
回望科技史,任何偉大的范式轉(zhuǎn)換,往往都在非議與豪賭中誕生。
也許,未來的 AI 計算基座并不是非此即彼。云端依然是算力磅礴的通用 GPU 集群,而在萬物互聯(lián)的終端,則是無數(shù)顆被固化了“本能”的低功耗 AI 芯片。
當大模型不再是云端的高嶺之花,而是變成像電阻、電容一樣廉價且隨處可見的電子元器件時,AI 真正的大爆發(fā),才算真的拉開大幕。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.