在硅谷當下的宏大敘事中,算力即權力。
英偉達的 GPU 似乎成了通往AGI唯一且昂貴的門票。當整個行業都在狂熱地堆疊“更大、更貴、更耗電”的 GPU 集群時,一種極具顛覆性的底層技術叛逆卻在暗處悄然發生。
![]()
近日,一家成立不到三年、位于多倫多的初創公司 Taalas 拋出了一個讓半導體與 AI 業界側目的方案:他們將 Meta 的 Llama 大模型直接“硬連線”(Hardwired)進了 ASIC(專用集成電路)芯片。 這并非一次常規的硬件制程升級,而是一場物理層面的暴力重構。
由Tenstorrent前聯合創始人Ljubisa Bajic帶隊的這群工程師,不再依賴昂貴的HBM顯存,拋棄了液冷:模型不再是以軟件代碼的形式運行在通用硬件上,也不再需要頻繁地從高帶寬顯存(HBM)中吞吐成百上千 GB 的權重數據。Llama 龐大的神經網絡結構和數十億參數,被直接固化進物理電路,成為了芯片本身——芯片即模型,模型即芯片。
在這塊采用臺積電6納米工藝、面積達815平方毫米的芯片上,單用戶運行Llama 3.1 8B的推理吞吐達到了令人瞠目的17,000 tokens/秒。作為對比,這個速度是英偉達最頂尖GPU的數十倍,是人類閱讀或思考速度的成百上千倍。生成一部詳盡的二戰逐月編年史,僅需0.138秒。
這一反常識的技術路線,究竟是打破算力瓶頸的終極突破,還是無視模型迭代規律的“刻舟求劍”?
一、歷史的鐘擺:天下苦“內存墻”久矣
Taalas 之所以做如此激進的嘗試,是因為當前 AI 產業有一個隱疾:內存墻(Memory Wall)。
自計算機誕生以來,統治整個行業的基石是“馮·諾依曼架構”,其設計中就存在計算與存儲分離的特點:需要計算時,就從后臺把數據搬運到舞臺上,算完再搬回去。
![]()
在模型只有幾兆、幾十兆的時代,這個架構運轉良好。但是,當大語言模型膨脹到幾百億、上千億參數時,這一經典架構正在成為最大的絆腳石。GPU 運行大模型進行推理時,它并沒有把大部分精力花在計算上,而是被迫變成了一個疲于奔命的“搬運工”——海量的模型權重數據需要在顯存和計算單元之間來回穿梭,高達 80% 的功耗和延遲都浪費在了這種數據的物理搬運上。這不僅造就了英偉達龐大的護城河,也直接捧紅了價格極其昂貴的 HBM 存儲芯片。AI行業苦“內存墻”久矣,它讓 AI 推理的成本居高不下,讓數據中心變成了吞噬電力的巨獸。
Taalas 的 ASIC 路線,本質上是對這筆“算力稅”的徹底逃避。當模型權重不再是以數據的形式存在于內存中,而是變成了固化的晶體管開閉狀態,數據搬運的動作就在物理層面上被抹除了。
二、絕對速度與“電子牛馬”:商業落地的場景價值
Taalas打破內存墻帶來的最直接后果,是成本和能效比的恐怖斷層。
![]()
傳統的GPU數據中心是名副其實的“電老虎”,動輒需要液冷伺候。而Taalas的HC1芯片,單顆功耗僅約250W。即使部署10顆芯片,總功耗不過2.5千瓦,僅靠常規的空氣冷卻就能穩定運行。根據Taalas官方及業界測算,其百萬Token的推理成本僅為0.0075美元左右,是傳統GPU方案的二十分之一甚至更低。在“唯快不破”和“降本增效”成為行業鐵律的今天,這組數據的沖擊力毋庸多言。
從工程學的角度來看,這顯然是一次驚人的效率躍升;而在模型快速迭代的今天,一個不能更新、不能運行其他模型的芯片,聽起來顯然又像個笑話。但是,如果我們跳出“打造全知全能AGI”的宏大敘事,將目光投向海量的商業垂直場景,也許會發現,這種“固化”非但不是缺陷,反而可能是某些場景下的最優解。
在真實的商業世界里,并非所有場景都需要一個通曉量子力學、能寫莎士比亞十四行詩的GPT5甚至更新的模型。大部分場景需要的,是一個極其穩定、便宜、速度極快且不需要休息的“電子牛馬”。
![]()
想象一下工業流水線上的毫秒級殘次品視覺識別、智能汽車里需要絕對零延遲響應的端側語音中樞、數以億計的家用陪伴機器人或兒童玩偶……在這些場景中,企業根本不在乎你能否兼容最新的大模型框架,他們在乎的是:能不能用幾美分的成本,把手頭這件特定的任務做到光速?
Taalas的HC1,正好可以解決這種“規模化單一任務”。當17,000 tokens/秒的速度應用在語音助手上,AI的回答將比人類的神經反射還要快,“等待LLM思考”的轉圈動畫將徹底成為歷史。一個原本需要幾百瓦功率、必須插在液冷服務器上的大模型,未來也許只需幾瓦的電量,就能被輕易塞進一臺掃地機器人、一部智能手機,甚至是一副輕薄的AI眼鏡中。真正的“萬物皆 AI”,也只有在算力和功耗被極度壓縮后才可能實現。
三、刻舟求劍的隱憂:被“凍結”在芯片里的智慧
盡管如此,鑒于當前 AI 算法一日千里的演進速度,Taalas 的路線極具風險的另一面也是不容忽視的。將流動的軟件代碼固化為冰冷的物理電路,意味著犧牲了靈活性。這里有兩個極其尖銳的現實錯位。
首先是迭代周期的錯位。如今,開源大模型的進化是以“月”甚至“周”為單位的。但一顆先進制程的芯片,從架構設計、流片到最終量產,通常需要 18 到 24 個月。而當它走下產線時,它所“凍結”的 Llama 模型,在日新月異的算法世界里,是否已經淪為一個落后的“古董”?
再者是容錯率的錯位。大模型如果出現嚴重的幻覺或安全漏洞,可以通過微調或推送 OTA 補丁來迅速修復。但是,一塊已經刻好物理電路的芯片該怎么打補丁呢?一旦芯片內固化的模型存在致命缺陷,整批昂貴的芯片大概率只能淪為硅垃圾。
![]()
對于這些致命的商業風險,Taalas也給出了他們的防守策略。首先是微調的保留, HC1雖然鎖死了基礎權重,但依然保留了對低秩自適應(LoRA)微調的支持。這意味著企業可以在物理大模型的外部,外掛小型的“知識補丁”來調整特定任務的表現。其次是極速的物理迭代,Taalas CEO 透露,改變模型并不需要重新設計整個底層硅片,而只需更改芯片最上層的兩層金屬層。這種制造工藝的創新,將新模型的硬件化周期壓縮到了驚人的兩個月,從而幫助模型實現小幅迭代。
縱然如此,這依然是一場與時間賽跑的豪賭。在這場博弈中,Taalas試圖用硬件的極致靜態,去捕捉 AI 算法的極致動態,不可避免地帶有一些“刻舟求劍”的悲壯色彩。
四、蝴蝶效應:誰在戰栗,誰在狂歡?
盡管局限性很明顯,但Taalas這種“模型即芯片”的路線的面世,依然撕開了英偉達絕對壟斷帝國的一道裂痕。
英偉達的地位,很大程度上歸功于其CUDA軟件生態。全世界的開發者都在用CUDA寫程序,這使得硬件的壁壘變成了堅不可摧的軟件生態壁壘。但是,如果AI的盡頭不再需要軟件呢?
![]()
Taalas的路線意味著,在推理這個占據未來AI算力90%以上份額的市場中,CUDA的護城河被徹底繞過了。模型訓練依然離不開英偉達的GPU,但在最終落地應用的端側和專業推理數據中心,ASIC專有芯片正在掀起一場“去英偉達化”的起義。
另外,隨著生成式AI加速進入商業落地,Taalas之外,Groq、Cerebras、Etched等公司也分別在極速響應、海量吞吐、特定算法加速方面進行著不同的探索,都有可能一點點蠶食推理市場,撼動曾經固若金湯的英偉達帝國。
同時,存儲巨頭的狂歡也極可能降溫。目前,HBM芯片是存儲行業的超級印鈔機。但如果模型權重被內化于電路,對龐大顯存的依賴將大幅降低。無存算分離架構一旦普及,存儲廠商在 AI 時代的暴利預期將被大幅擠壓。
正因如此,Taalas將大模型刻進硅片,絕不是AI算力的終點,在不遠的未來,我們也許會看到算力市場的明顯分化:
云端與訓練場依然是英偉達GPU和通用加速器的天下,用于探索AGI的智力邊界,處理那些最復雜、最多變的未知任務。
端側與流水線則是Taalas這類“物理硬化”芯片的汪洋大海,它們如沙子般便宜,如光速般敏捷,滲透進每一個路燈、每一臺家電、每一個工業機器人中。
甚至,當我們把目光放得更長遠一些,當量子計算真正走向實用,或者類腦計算實現突破時,今天我們為了突破馮·諾依曼架構所做的所有努力,可能都會成為技術史上一次次充滿勇氣而又略顯笨拙的嘗試。
結語:從“全能大腦”到“硬件本能”
計算架構的演進從來不是單向的直線,而是螺旋上升的復調。從早期的專用打孔機,到通用CPU,到專為圖形處理誕生的GPU,再到如今的AI ASIC,計算的歷史,就是在“通用靈活性”與“專用極致效率”之間不斷搖擺的過程。
Taalas的探索,或許在今天看來略顯激進,甚至面臨“出廠即落后”的窘境,但它向我們拋出了一個極具哲學意味的產業命題:
AI的終極演化形態究竟是什么?
它是否必須永遠保持像水一樣可以隨意重塑的“通用軟件大腦”?
還是說,就像生物歷經億萬年進化一樣,AI 也會將其最基礎、最成熟的智能(比如基礎的視覺識別、語言邏輯解析),內化為無需思考、極低功耗運行的“硅基硬件本能”?
![]()
回望科技史,任何偉大的范式轉換,往往都在非議與豪賭中誕生。
也許,未來的 AI 計算基座并不是非此即彼。云端依然是算力磅礴的通用 GPU 集群,而在萬物互聯的終端,則是無數顆被固化了“本能”的低功耗 AI 芯片。
當大模型不再是云端的高嶺之花,而是變成像電阻、電容一樣廉價且隨處可見的電子元器件時,AI 真正的大爆發,才算真的拉開大幕。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.