337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

大模型又出新架構(gòu),面壁這次把Transformer上下文能力拉滿了

0
分享至

我有點好奇一個問題,

讓現(xiàn)階段一個百萬上下文的大模型讀一本百萬字的小說,需要推理嗎?

可能大部分時候不需要,它需要的只是記住,記住第一章的主角在最后一章說了什么。

現(xiàn)在傳統(tǒng)的Transformer架構(gòu)只有一種處理方式,全靠硬算。它像一個過于認真的前排學霸,為了記住最后一章的內(nèi)容,把前面九十九萬字的內(nèi)容跟每一個新生成的字都做一次對比計算。


這樣會占大量的顯存,計算量也會平方級增長。

這一周新的大模型也是不停刷新,MiniMax M2.5,GLM5,Gemini 3.1 Pro Preview,DeepSeek新版本(疑似V4),我都希望他們可以接入我的OpenClaw里面,做一個長對話長記憶的模型。

昨天,面壁還發(fā)了一篇新論文,提出了一個叫SALA(Sparse Attention-Linear Attention)的混合注意力架構(gòu)。它給出了一個新觀點,

該快的地方就得快,該準的地方必須準。


https://github.com/OpenBMB/MiniCPM/blob/main/docs/MiniCPM_SALA.pdf

在他們的SALA架構(gòu)里,

一部分模塊專門負責快,

另一部分模塊專門負責準。

結(jié)果就是,基于SALA架構(gòu)的模型,在端側(cè)顯卡上,第一次把百萬的長文本推理,穩(wěn)穩(wěn)跑通了。


我們來看一個具體的例子,

模型在處理百萬字小說時,內(nèi)部發(fā)生了什么。

每生成一個新詞,模型都要把它和前面所有詞語的鍵值對,也就是KV Cache,全部計算一遍。計算復(fù)雜度是隨著文本長度平方級增長的,

同時,這個KV Cache會像滾雪球一樣,迅速吃掉你所有的顯存。把上下文從一萬字拉到一百萬字,計算量不是漲一百倍,是飆升一萬倍。

這就是為什么傳統(tǒng)架構(gòu)在長上下文任務(wù)面前,會同時撞上計算墻和顯存墻。


這幾十萬字的上下文,大部分可能只是背景描述,真正關(guān)鍵的信息也許就那么幾句。

但模型為了找到這幾句關(guān)鍵信息,付出的代價是把所有內(nèi)容都用最高精度過了一遍。

來看看SALA的幾個關(guān)鍵的設(shè)計,

首先是兩種模塊的分工。

線性注意力,我們這里可以理解為負責準的模塊,面壁選用的是Lightning Attention,挑出那些最關(guān)鍵的局部信息進行精細計算。稀疏注意力,則是負責快的模塊,面壁選用的是InfLLM v2,會高效計算所有信息。

SALA就是把這兩者結(jié)合了起來。整個模型里,75%的層是負責準的線性注意力,剩下的25%,是負責快的稀疏注意力。這個比例經(jīng)過大量實驗找出的效率與精度之間的平衡點。


在不使用任何額外技術(shù)(如YaRN)的前提下,MiniCPM-SALA 可以將上下文長度拓展至2048K。

怎么保證它們能好好合作,不是互相干擾呢?

SALA用了一個叫HyPE的混合位置編碼策略。在線性層,它保留了RoPE,保證短文本能力不受影響。在稀疏層,它去掉了位置編碼,避免了信息在長距離傳遞時的衰減問題。

模型在檢索幾萬甚至幾十萬token之前的內(nèi)容時,依然能保持高精度。


最后是模型怎么來的。

這里有一個核心問題,要訓練一個全新的混合架構(gòu)模型,成本超級高。

面壁沒有從零開始,反而是提出了一個叫HALO的訓練范式。簡單來說,就是拿一個已經(jīng)訓練好的全注意力模型,比如MiniCPM-4.0,通過架構(gòu)轉(zhuǎn)換,把它的一部分層變成線性注意力,另一部分變成稀疏注意力,然后進行持續(xù)訓練。


這種方式,就像是給一輛性能不錯的汽車做改裝升級,而不是重新設(shè)計一輛新車。它繼承了原模型已經(jīng)學到的所有知識和能力,只是讓它學會了用一種更高效的方式去工作。相比從頭訓練,這個方法的成本直接降低了大約75%。

這個訓練過程也很有講究,分為架構(gòu)轉(zhuǎn)換,穩(wěn)定訓練,短衰減,長衰減和微調(diào)五個階段。特別是在長衰減階段,模型逐步把上下文長度從4K擴展到520K,讓模型充分學習兩種注意力機制協(xié)同。

我們來看效果數(shù)據(jù)。

這次面壁并沒有用一堆榜單來證明自己,是出了真實場景下的性能數(shù)據(jù),對比的是同等規(guī)模的全注意力模型Qwen3-8B,我挑幾個關(guān)鍵數(shù)據(jù),

在推理速度上,當上下文長度達到256K時,MiniCPM-SALA的速度是Qwen3-8B的3.5倍。

這個提升完全來自架構(gòu)本身的優(yōu)勢。


在顯存占用上,在RTX 5090這樣的消費級顯卡上,Qwen3-8B在上下文長度達到128K時,就會因為顯存不足而崩潰。而MiniCPM-SALA可以穩(wěn)穩(wěn)地跑到1M,也就是一百萬token的長度。


但我是個挑剔的人,

用了會丟信息的注意力,模型是不是沒腦子了?

這也是這篇工作最有價值的部分。實驗數(shù)據(jù)顯示,MiniCPM-SALA在數(shù)學,代碼,知識問答這些常規(guī)能力上,和同規(guī)模的全注意力模型基本持平,沒有出現(xiàn)明顯的性能折損。


傳統(tǒng)的全注意力模型,在處理長文本時,它的注意力容量被大量消耗在維持局部依賴上,比如識別一個多詞組成的人名。而SALA架構(gòu),把這些任務(wù)交給了更高效的模塊,從而釋放了稀疏注意力層的容量,讓它們可以更專注于建立全局的,跨越超長距離的上下文聯(lián)系。

為了推動這個架構(gòu)落地,面壁聯(lián)合了SGLang和NVIDIA,發(fā)起了一個稀疏算子加速大獎賽SOAR。


SALA雖然在架構(gòu)上做好了,

但底層的計算算子,相比已經(jīng)被優(yōu)化到極致的FlashAttention,還有很大提升空間。

這個比賽就是邀請全球的開發(fā)者,一起來把SALA這臺新引擎的性能,壓榨到極限。

平時測評模型測多了,

都是Coding,Coding,Coding,

我很高興看到還不斷能有新的架構(gòu),

新的算法出現(xiàn),

就算是DeepSeek這一年,

更新模型的同時也沒停過公開自己的算法,

面壁過去這一年也是不停發(fā)端側(cè)模型的工作,

我覺得就這速度都不需要五年十年,

可能過個兩三年,

在小天才手表上也能跑個大大大模型。

@ 作者 / 卡爾

最后,感謝你看到這里如果喜歡這篇文章,不妨順手給我們點贊|在看|轉(zhuǎn)發(fā)|評論

如果想要第一時間收到推送,不妨給我個星標

如果你有更有趣的玩法,歡迎在評論區(qū)和我聊聊

更多的內(nèi)容正在不斷填坑中……


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
伊朗新最高領(lǐng)袖莫賈塔巴哈梅內(nèi)伊已同意與美國進行談判并達成協(xié)議

伊朗新最高領(lǐng)袖莫賈塔巴哈梅內(nèi)伊已同意與美國進行談判并達成協(xié)議

深度報
2026-03-25 22:47:08
55年授銜,當主席看到名單中有個熟悉的名字,大筆一揮:他不是少將

55年授銜,當主席看到名單中有個熟悉的名字,大筆一揮:他不是少將

睡前講故事
2025-12-12 13:58:11
春天,這堿性菜再貴也要多吃,殺菌強免疫,補鈣補鉀兩不誤,好吃

春天,這堿性菜再貴也要多吃,殺菌強免疫,補鈣補鉀兩不誤,好吃

阿龍美食記
2026-03-25 10:38:40
中方是否了解美伊磋商情況?外交部:支持一切有利緩局降溫的努力

中方是否了解美伊磋商情況?外交部:支持一切有利緩局降溫的努力

澎湃新聞
2026-03-26 15:32:26
女同主播出軌大哥 被"正宮"直播對質(zhì)!真實長相曝光

女同主播出軌大哥 被"正宮"直播對質(zhì)!真實長相曝光

游民星空
2026-03-25 20:08:13
為滿足中國臺灣地區(qū)F-16V訂單需求,洛馬公司開始實行兩班倒生產(chǎn)

為滿足中國臺灣地區(qū)F-16V訂單需求,洛馬公司開始實行兩班倒生產(chǎn)

零度Military
2026-03-25 18:51:44
耗時八年終握手,歐盟與澳大利亞決心已下,要將中美劃到同一陣營

耗時八年終握手,歐盟與澳大利亞決心已下,要將中美劃到同一陣營

策略述
2026-03-26 16:35:30
電飯鍋哪個牌子質(zhì)量好?2026電飯煲排名前十盤點!大眾主流精選

電飯鍋哪個牌子質(zhì)量好?2026電飯煲排名前十盤點!大眾主流精選

小柱解說游戲
2026-03-25 17:56:15
拉里賈尼繼任者不到一天被殺,川普加派82空降師開赴中東

拉里賈尼繼任者不到一天被殺,川普加派82空降師開赴中東

移光幻影
2026-03-26 09:56:37
中國最丑18大建筑:南京衛(wèi)生巾、昆山螃蟹,不忍直視!

中國最丑18大建筑:南京衛(wèi)生巾、昆山螃蟹,不忍直視!

秘密即將揭曉
2026-03-25 16:56:26
9中9轟20+9+5!楊瀚森付出一切遭庫克坑苦 G聯(lián)賽首次百分百命中率

9中9轟20+9+5!楊瀚森付出一切遭庫克坑苦 G聯(lián)賽首次百分百命中率

顏小白的籃球夢
2026-03-26 10:15:13
1976年播報毛主席訃告,播音員念完三遍后突然冒出一句話,全國都慌了

1976年播報毛主席訃告,播音員念完三遍后突然冒出一句話,全國都慌了

文史明鑒
2026-03-25 19:14:13
維護主權(quán)、為國家創(chuàng)收,伊朗尋求對霍爾木茲通行船只收費

維護主權(quán)、為國家創(chuàng)收,伊朗尋求對霍爾木茲通行船只收費

界面新聞
2026-03-26 09:34:36
閉眼隔扣+戲耍兩人后嘲諷拉滿!41歲詹皇23+9+9 在場+24湖人封王

閉眼隔扣+戲耍兩人后嘲諷拉滿!41歲詹皇23+9+9 在場+24湖人封王

顏小白的籃球夢
2026-03-26 09:40:23
實錘了!殲10C飛行員明確披露,我軍預(yù)警機可直接制導(dǎo)空空彈

實錘了!殲10C飛行員明確披露,我軍預(yù)警機可直接制導(dǎo)空空彈

策略述
2026-03-25 14:07:39
張雪峰經(jīng)典名言 100 條(完整版)

張雪峰經(jīng)典名言 100 條(完整版)

新浪財經(jīng)
2026-03-25 06:17:25
公職人員下班后這5種行為,將嚴肅處理,千萬別踩紅線!

公職人員下班后這5種行為,將嚴肅處理,千萬別踩紅線!

細說職場
2026-03-26 11:13:03
41歲張雪峰離世,峰學蔚來接班人正式浮出水面

41歲張雪峰離世,峰學蔚來接班人正式浮出水面

秋姐居
2026-03-25 17:02:04
好辣眼睛!黃多多穿三點式泳裝,20歲身材矮小,在國外思想開放

好辣眼睛!黃多多穿三點式泳裝,20歲身材矮小,在國外思想開放

章眽八卦
2026-03-26 13:22:27
張康陽現(xiàn)狀證明,不怕富二代躺平就怕有野心,僅5年千億身價歸零

張康陽現(xiàn)狀證明,不怕富二代躺平就怕有野心,僅5年千億身價歸零

青杉依舊啊啊
2026-03-19 22:10:26
2026-03-26 17:12:49
卡爾的AI沃茨 incentive-icons
卡爾的AI沃茨
前大廠算法工程師,3家科技公司技術(shù)總監(jiān)|致力打造最系統(tǒng)的Al學習體系,讓1萬人通過Al提高生產(chǎn)力
235文章數(shù) 119關(guān)注度
往期回顧 全部

科技要聞

Meta高管狂分百億期權(quán),700名員工卻下崗

頭條要聞

國防部:日本侵略過所有周邊國家 至今都沒有真正反省

頭條要聞

國防部:日本侵略過所有周邊國家 至今都沒有真正反省

體育要聞

申京努力了,然而杜蘭特啊

娛樂要聞

張雪峰家人首發(fā)聲 不設(shè)追思會喪事從簡

財經(jīng)要聞

長護險誰能享受?享受多少?解答來了

汽車要聞

一汽奧迪A6L e-tron開啟預(yù)售 CLTC最大續(xù)航815km

態(tài)度原創(chuàng)

家居
教育
本地
公開課
軍事航空

家居要聞

傍海而居 靜觀蝴蝶海

教育要聞

2026湖北高職單招工作啟動

本地新聞

救命,這只醬板鴨已經(jīng)在我手機復(fù)仇了一萬遍

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

擔心特朗普突然停戰(zhàn) 以總理下令48小時盡力摧毀伊設(shè)施

無障礙瀏覽 進入關(guān)懷版