337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

奧特曼宣判Transformer死刑,Mamba?3正在接管下一代AI架構(gòu)

0
分享至

如果說過去七年是 Transformer 的黃金時(shí)代,那么 2026 年開始,空氣里已經(jīng)隱隱飄著“范式更替”的味道。就在不久前,Sam Altman 在斯坦福的一場(chǎng)訪談里拋出重磅判斷(這次不吹牛了?!):Transformer的壽命快到頭了,下一代架構(gòu)已經(jīng)在路上

奧特曼在最新訪談中直言,我們所追求的 AGI 可能只是一次“熱身”。真正的革命正在醞釀——下一代架構(gòu)突破已經(jīng)在路上。現(xiàn)有的高階大模型已經(jīng)具備足夠的認(rèn)知力,它們不只是工具,而是人類智力的杠桿,正在親手推開另一個(gè)技術(shù)范式的大門。

這場(chǎng)革命的核心,正是由 Albert Gu 和 Tri Dao 在 2023 年底提出的全新架構(gòu):Mamba。它徹底繞開了注意力機(jī)制,改用狀態(tài)空間模型(SSM)來處理序列。簡(jiǎn)單來說,Transformer 讀一句話要讓每個(gè)詞和其他所有詞“對(duì)視”一遍,而 Mamba 只維護(hù)一個(gè)固定大小的記憶狀態(tài),線性時(shí)間就能完成,推理吞吐量直接快上五倍。

到了 2026 年初,Mamba 已經(jīng)進(jìn)化到第三代——Mamba?3

01為什么Mamba?3是當(dāng)下最值得關(guān)注的架構(gòu)突破?

Transformer 的成功毋庸置疑,它撐起了 GPT、Claude、Gemini 等一系列劃時(shí)代模型。但它也有一個(gè)無法回避的致命弱點(diǎn)——算力黑洞。序列長(zhǎng)度翻十倍,計(jì)算量直接翻一百倍,KV Cache 隨著上下文線性膨脹,推理成本高到讓大模型部署變成“富人游戲”。當(dāng)模型越來越大、上下文越來越長(zhǎng)、推理越來越頻繁,Transformer 的結(jié)構(gòu)性瓶頸已經(jīng)成為整個(gè)行業(yè)的天花板。

于是,另一條路線悄然崛起:線性模型(SSM / State Space Models)。 它們不依賴全局注意力,而是通過固定大小的狀態(tài)向量來處理序列,理論上能做到線性復(fù)雜度+常數(shù)內(nèi)存

從 S4 到Mamba?1,再到 2024 年的 Mamba?2,這條路線一路狂飆,甚至被 NVIDIA、微軟、AI21 等巨頭大規(guī)模采用。

但線性模型也有自己的短板,它們的表達(dá)能力不如 Transformer,尤其在狀態(tài)跟蹤、復(fù)雜動(dòng)態(tài)建模上表現(xiàn)乏力,它們的離散化方法粗糙,理論基礎(chǔ)薄弱,它們的推理階段雖然復(fù)雜度低,但在 GPU 上卻是典型的 memory?bound,算力利用率極低。

就在這種“希望與瓶頸并存”的關(guān)鍵節(jié)點(diǎn),Mamba?3出現(xiàn)了

這不是一次常規(guī)的版本升級(jí),而是一場(chǎng)徹底的架構(gòu)重構(gòu)。 它的核心理念只有一句話:Inference?First(推理優(yōu)先)

不是為了訓(xùn)練更快,而是為了推理更強(qiáng),不是為了模型更大,而是為了模型更聰明,不是為了延續(xù)舊范式,而是為了打開新范式的大門。

Mamba?3 的三大創(chuàng)新——指數(shù)?梯形離散化、復(fù)數(shù)狀態(tài)空間模型、MIMO推理結(jié)構(gòu)分別對(duì)應(yīng)線性模型的三大痛點(diǎn):精度、能力、效率

研究團(tuán)隊(duì)由當(dāng)今 SSM 領(lǐng)域最強(qiáng)的組合構(gòu)成:

CMU(Carnegie Mellon University):SSM 理論源頭,Albert Gu、Zico Kolter 坐鎮(zhèn)。

Princeton University:工程實(shí)現(xiàn)與大規(guī)模實(shí)驗(yàn)。

Together AI(Tri Dao):FlashAttention 發(fā)明者,GPU kernel 優(yōu)化大師。

Cartesia AI:SSM 商業(yè)化落地團(tuán)隊(duì)。

這支隊(duì)伍幾乎囊括了整個(gè) SSM 體系的核心人物,是名副其實(shí)的“原班人馬 + 工程鐵軍”。

從 S4 到 Mamba?1,再到Mamba?2,SSM 的發(fā)展史本身就是一條不斷逼近Transformer 的曲線。而 Mamba?3 的出現(xiàn),則讓這條曲線第一次出現(xiàn)了明顯的“超越拐點(diǎn)”。

02從Transformer到Mamba的技術(shù)演進(jìn)

Transformer 的故事已經(jīng)講了太久,但它的成功與局限,恰恰構(gòu)成了 Mamba?3 崛起的背景。

Transformer 的最大優(yōu)勢(shì),是它的全局注意力機(jī)制。 每個(gè) token 都能與其他所有 token 交互,這讓模型具備了極強(qiáng)的表達(dá)能力,尤其在語言建模、推理、代碼生成等任務(wù)上表現(xiàn)驚艷。

但這種“全局對(duì)視”也帶來了巨大的代價(jià),計(jì)算復(fù)雜度O(n2),序列越長(zhǎng)越難受;KV Cache線性增長(zhǎng),推理時(shí)內(nèi)存壓力爆炸;長(zhǎng)上下文成本高昂,讓大模型的推理變成奢侈品。

當(dāng)上下文從 4K → 128K → 1M,Transformer 的結(jié)構(gòu)性矛盾被無限放大。 這不是工程優(yōu)化能解決的問題,而是架構(gòu)本身的限制。

于是,另一條路線開始被重新審視:狀態(tài)空間模型(SSM)


圖1:左:指數(shù)梯形規(guī)則誘導(dǎo)的結(jié)構(gòu)化掩模是衰減和雙頻卷積掩模的乘積。右圖:Euler(保持端點(diǎn))與梯形(平均端點(diǎn))積分近似。

SSM 的核心思想非常簡(jiǎn)單, 不讓所有 token 互相“對(duì)視”,而是維護(hù)一個(gè)固定大小的“狀態(tài)向量”,隨著序列推進(jìn)不斷更新。 這意味著計(jì)算復(fù)雜度線性、內(nèi)存占用常數(shù)級(jí)天然適合長(zhǎng)序列

從 S4 到 S5,SSM 在學(xué)術(shù)界逐漸成熟。從 Mamba?1 到 Mamba?2,它開始進(jìn)入工業(yè)界,成為 Transformer 的重要替代方案。

Mamba?1 解決了訓(xùn)練效率問題, Mamba?2 進(jìn)一步優(yōu)化了推理速度; 但它們?nèi)匀淮嬖谌齻€(gè)關(guān)鍵缺陷:

  1. 離散化方法粗糙,表達(dá)能力有限。

  2. 無法處理復(fù)雜的狀態(tài)跟蹤任務(wù)。

  3. 推理階段算力利用率極低(memory?bound)。

這三點(diǎn)限制了線性模型的上限,也讓它們始終無法真正撼動(dòng) Transformer 的統(tǒng)治地位。

Mamba?3 的設(shè)計(jì)哲學(xué)正是在這種背景下誕生的。

它不是為了讓模型訓(xùn)練更快,而是為了讓模型推理更強(qiáng)。不是為了讓模型更大,而是為了讓模型更聰明。

Inference?First(推理優(yōu)先)是 Mamba?3 的靈魂。

它的目標(biāo)非常明確,在保持線性復(fù)雜度的前提下, 同時(shí)提升模型的表達(dá)能力、狀態(tài)跟蹤能力與推理硬件效率。

這也是為什么 Mamba?3 被視為“后Transformer 時(shí)代”的重要候選架構(gòu)。

03核心創(chuàng)新一:指數(shù)?梯形離散化(Exponential?Trapezoidal)

如果把 Mamba?1/2 比作一臺(tái)“能跑但不夠精密”的線性引擎,那么 Mamba?3 做的第一件事,就是把這臺(tái)引擎的燃油系統(tǒng)徹底換掉。過去的 Mamba?1/2 使用的是最簡(jiǎn)單的 Euler 離散化,這種方法的優(yōu)點(diǎn)是快,但缺點(diǎn)也非常明顯,它只有一階精度,誤差會(huì)隨著序列長(zhǎng)度不斷累積,像滾雪球一樣越滾越大。

在長(zhǎng)序列任務(wù)里,這種誤差累積會(huì)直接限制模型對(duì)局部結(jié)構(gòu)的表達(dá)能力。你可以把它想象成模型每走一步都會(huì)“踩偏一點(diǎn)點(diǎn)”,走得越遠(yuǎn),偏差越大。

Mamba?2 的狀態(tài)更新公式非常簡(jiǎn)單,核心形式是:

其中

這看起來還不錯(cuò),但本質(zhì)上仍然是一階近似。

Mamba?3 的作者顯然對(duì)這種“粗糙的近似”不滿意,于是他們回到連續(xù)時(shí)間的狀態(tài)空間模型,從數(shù)學(xué)原理重新推導(dǎo)離散化方法。連續(xù) SSM 的基本形式是:


關(guān)鍵突破點(diǎn)在于Mamba?3 不再只看區(qū)間右端點(diǎn),而是同時(shí)看左右兩個(gè)端點(diǎn)的加權(quán)平均,這就是所謂的“指數(shù)?梯形離散化”。它的本質(zhì),是把輸入項(xiàng)的積分從一階精度提升到二階精度。

最終得到的離散化形式是:


這是一個(gè)核心數(shù)學(xué)公式,也是 Mamba?3 的關(guān)鍵升級(jí)點(diǎn)。

它的意義非常深遠(yuǎn),模型不再只看當(dāng)前 token,而是同時(shí)看當(dāng)前和上一個(gè) token 的組合。Mamba?3 的狀態(tài)更新天然帶有一個(gè)“隱式寬度 2 的卷積”,讓它在捕捉局部結(jié)構(gòu)時(shí)更加精確、更加穩(wěn)定。

這項(xiàng)升級(jí)帶來的效果是立竿見影的。 Mamba?3 不再需要額外的短卷積層,語言建模質(zhì)量顯著提升,長(zhǎng)序列任務(wù)中的誤差累積也大幅減少。對(duì)于一個(gè)線性模型來說,這幾乎是一次“底層數(shù)學(xué)級(jí)別”的能力增強(qiáng)。

04核心創(chuàng)新二:復(fù)數(shù)狀態(tài)空間模型(Complex SSM)

如果說指數(shù)?梯形離散化是“精度升級(jí)”,那么復(fù)數(shù) SSM 則是“能力升級(jí)”。

線性模型一直有一個(gè)致命弱點(diǎn),它們的狀態(tài)轉(zhuǎn)移矩陣通常是實(shí)數(shù)、非負(fù)、對(duì)角的。這意味著它們只能表達(dá)“衰減”或“累積”,卻無法表達(dá)“旋轉(zhuǎn)”或“周期性”。

而很多狀態(tài)跟蹤任務(wù)——比如 parity(奇偶性)、括號(hào)匹配、計(jì)數(shù)器——本質(zhì)上都需要一種“旋轉(zhuǎn)式”的狀態(tài)更新。

但 Mamba?2 的實(shí)數(shù)對(duì)角矩陣根本做不到這一點(diǎn),于是它在這些任務(wù)上表現(xiàn)得幾乎和隨機(jī)猜測(cè)一樣。

Mamba?3 的作者做了一件非常聰明的事,他們引入了復(fù)數(shù)狀態(tài)空間模型。復(fù)數(shù) SSM 的連續(xù)形式允許狀態(tài)在復(fù)平面上旋轉(zhuǎn),而不是只能衰減或累積。離散化后,它等價(jià)于一個(gè)由 2×2 旋轉(zhuǎn)矩陣組成的塊對(duì)角矩陣。

更妙的是,研究團(tuán)隊(duì)證明復(fù)數(shù) SSM 等價(jià)于對(duì) B、C 做數(shù)據(jù)依賴的 RoPE(旋轉(zhuǎn)位置編碼)。

也就是說,Mamba?3 不需要真正使用復(fù)數(shù),只需要用 RoPE trick 就能實(shí)現(xiàn)復(fù)數(shù)動(dòng)態(tài)。

這項(xiàng)創(chuàng)新帶來的能力提升是質(zhì)變級(jí)別的。

Mamba?3 在所有狀態(tài)跟蹤任務(wù)上幾乎滿分,而 Mamba?2 則完全失敗。這意味著線性模型第一次在“能力維度”上實(shí)現(xiàn)了真正的突破。

05核心創(chuàng)新三:MIMO SSM(Multi?Input Multi?Output)

如果說前兩個(gè)創(chuàng)新解決的是“模型能力”,那么 MIMO 則是解決“硬件效率”的終極武器。

線性模型的推理雖然是 O(n),但在 GPU 上卻是典型的memory?bound, 算力閑著,顯存帶寬卻被打滿。

研究給出的數(shù)字非常直觀,SSM 推理算強(qiáng)度:2.5 ops/byte,H100 的理論算強(qiáng)度:295 ops/byte

這意味著 GPU 的絕大部分算力都被浪費(fèi)了。

MIMO的設(shè)計(jì)思想

Mamba?3 的作者提出了一個(gè)非常工程化的解決方案,把 SISO(單輸入單輸出)擴(kuò)展為 MIMO(多輸入多輸出)。

原本的狀態(tài)更新是一個(gè)外積:Btxt?,而MIMO 把它變成了一個(gè)矩陣乘法:BtXt?。

這件事帶來了兩個(gè)巨大好處,算強(qiáng)度提升 4×,GPU 的 Tensor Core 能真正被吃滿。

更關(guān)鍵的是延遲幾乎不變

因?yàn)橥评砣匀皇?memory?bound,算力變多不會(huì)拖慢速度。

帶來的能力提升

MIMO 的效果非常顯著,推理效率顯著提升,模型質(zhì)量進(jìn)一步提升(尤其是 MIMO 版本的 Mamba?3),更適合 agentic workflows、并行推理、長(zhǎng)上下文任務(wù)。

這讓 Mamba?3 不僅是一個(gè)“更強(qiáng)的模型”,更是一個(gè)“更適合部署的模型”。

06Mamba?3的整體架構(gòu)設(shè)計(jì)

如果說 Mamba?3 的三大數(shù)學(xué)創(chuàng)新是“發(fā)動(dòng)機(jī)重做”,那么它的整體架構(gòu),就是把這臺(tái)新引擎裝進(jìn)一輛真正能跑的車?yán)铩Q芯吭诠こ虒用孀隽舜罅考?xì)致的打磨,讓 Mamba?3 不只是一個(gè)理論上更強(qiáng)的模型,而是一個(gè)可以大規(guī)模訓(xùn)練、部署、落地的工業(yè)級(jí)架構(gòu)。

Llama風(fēng)格的Block結(jié)構(gòu)更現(xiàn)代、更穩(wěn)定、更易擴(kuò)展

Mamba?3 的整體結(jié)構(gòu),直接采用了 Llama 系列的經(jīng)典布局,Mamba?3 Block與SwiGLU前饋層交替堆疊,采用Pre?Norm結(jié)構(gòu)

這意味著它不再像 Mamba?1/2 那樣需要額外的短卷積層來彌補(bǔ)表達(dá)能力。 因?yàn)橹笖?shù)?梯形離散化本身就已經(jīng)在狀態(tài)更新中引入了“隱式卷積”,短卷積層自然就可以被移除。

這讓 Mamba?3 的 Block 更加簡(jiǎn)潔,也更接近 Transformer 的工業(yè)標(biāo)準(zhǔn)結(jié)構(gòu),方便與現(xiàn)有訓(xùn)練框架兼容。

BCNorm:線性模型的QKNorm時(shí)刻

Transformer 世界里有一個(gè)非常重要的技巧:QKNorm。 它能穩(wěn)定注意力分布,提升大模型訓(xùn)練的穩(wěn)定性。

Mamba?3 借鑒了這一點(diǎn),在 B、C 投影后加入了 RMSNorm,稱為BCNorm

它的作用非常直接,穩(wěn)定訓(xùn)練、減少梯度爆炸、提升大模型性能、讓 Mamba?3 不再需要 Mamba?2 中的“post?gate RMSNorm”補(bǔ)丁。

在純 Mamba?3 模型中,BCNorm 足以保證穩(wěn)定性; 在混合模型(SSM + Attention)中,BCNorm 甚至是長(zhǎng)上下文能力的關(guān)鍵。

B/C Bias讓線性模型更像卷積神經(jīng)網(wǎng)絡(luò)

研究團(tuán)隊(duì)還有一個(gè)非常有意思的設(shè)計(jì), 在 B、C 投影后加入可學(xué)習(xí)的通道偏置(bias)

這看似微不足道,但在 SSM 里卻非常關(guān)鍵。

因?yàn)?B、C 是狀態(tài)輸入與輸出的核心參數(shù),加入 bias 相當(dāng)于讓模型具備了“數(shù)據(jù)無關(guān)的卷積能力”。 這讓 Mamba?3 在表達(dá)局部模式時(shí)更加靈活,也讓它在沒有短卷積層的情況下依然能捕捉局部結(jié)構(gòu)。

這是一個(gè)典型的“工程小改動(dòng) → 能力大提升”的例子。

SISO與MIMO:公平對(duì)比vs性能巔峰

Mamba?3 提供兩種模式。

SISO(Single?Input Single?Output),這是為了與 Mamba?2、GDN、Transformer 做公平對(duì)比。它的結(jié)構(gòu)與 Mamba?2 類似,但使用了新的離散化與復(fù)數(shù) SSM。

MIMO(Multi?Input Multi?Output),這是 Mamba?3 的“完全體”。 它把外積變成矩陣乘法,讓 GPU 的 Tensor Core 真正吃滿。

研究實(shí)驗(yàn)顯示SISO:已經(jīng)比 Mamba?2 強(qiáng),MIMO:直接拉開一個(gè)檔次。

如果說 SISO 是“學(xué)術(shù)版”,MIMO 就是“工業(yè)版”。

07實(shí)驗(yàn)結(jié)果:Mamba?3的性能躍遷

Mamba?3 的實(shí)驗(yàn)結(jié)果可以用一句話概括,在保持線性復(fù)雜度的前提下,全面超越所有線性模型,并在多個(gè)維度逼近甚至超越Transformer


表1:使用100B FineWeb Edu令牌訓(xùn)練的模型的下游語言建模評(píng)估。最佳結(jié)果以粗體顯示,次佳結(jié)果以下劃線顯示,不包括Mamba-3 MIMO變體。所有模型都按照相同的程序進(jìn)行訓(xùn)練。Mamba-3 SISO在每個(gè)模型尺度上都優(yōu)于Mamba-2和其他模型,秩R=4的MIMO進(jìn)一步提高了建模能力。

語言建模(1.5B 參數(shù)):MIMO版本直接起飛

研究給出的結(jié)果非常直觀,Mamba?3 SISO:+0.6分(相對(duì) GDN),Mamba?3 MIMO:+1.8分(相對(duì) GDN)。

這意味著SISO 已經(jīng)比 Mamba?2、GDN更強(qiáng),MIMO 直接把性能拉到 Transformer 同級(jí)甚至更高。

在 1.5B 這種“小模型”規(guī)模下能做到這一點(diǎn),非常不容易。


圖2:探索不同Mamba變體的狀態(tài)大小(推理速度代理)與訓(xùn)練前困惑度(性能代理)。與之前的循環(huán)單輸入單輸出模型相比,Mamba-3改進(jìn)了帕累托前沿,同時(shí)引入MIMO通過更好的建模性能進(jìn)一步改變了前沿,而不會(huì)增加狀態(tài)大小。

狀態(tài)跟蹤任務(wù):復(fù)數(shù) SSM 的碾壓式勝利

研究團(tuán)隊(duì)展示了一個(gè)非常關(guān)鍵的實(shí)驗(yàn),parity、括號(hào)匹配、計(jì)數(shù)器等任務(wù)。

結(jié)果幾乎是“降維打擊”,Mamba?3(復(fù)數(shù)SSM)幾乎滿分,Mamba?3(無復(fù)數(shù))≈隨機(jī)Mamba?2 ≈隨機(jī)

這說明復(fù)數(shù) SSM 的引入不是“錦上添花”,而是“能力質(zhì)變”。


表2:模型、精度和數(shù)據(jù)狀態(tài)值之間的內(nèi)核延遲(以毫秒為單位)比較。與Mamba-2相比,Mamba-3引入了最小的開銷,并具有高效的實(shí)際實(shí)現(xiàn)。在常用的bf16,dstate=128設(shè)置下,我們的Mamba-3 SISO內(nèi)核比參考Mamba-2和GDN內(nèi)核快。與SISO相比,Mamba-3 MIMO(R=4)幾乎不產(chǎn)生額外成本。

推理效率:FLOPs ×4,延遲不變

MIMO 的效果非常驚人!推理 FLOPs 提升4倍,延遲幾乎與 Mamba?2 相同,perplexity 更低。

這意味著Mamba?3是目前最能吃滿GPU的線性模型

檢索任務(wù)(NIAH):線性模型的天然弱點(diǎn)被部分彌補(bǔ)

在固定狀態(tài)大小的情況下,線性模型在檢索任務(wù)上仍然弱于 Transformer。 但 Mamba?3 在 OOD(長(zhǎng)距離 needle)上表現(xiàn)更好,說明它的狀態(tài)更新更穩(wěn)定。

研究還指出混合模型(Mamba?3 + Attention)效果最佳

這也暗示了未來架構(gòu)的方向。

08Mamba?3的技術(shù)價(jià)值與產(chǎn)業(yè)意義

Mamba?3 的意義遠(yuǎn)不止“性能更強(qiáng)”,它在多個(gè)維度都指向了下一代架構(gòu)的趨勢(shì)。

Mamba?3 讓線性模型第一次在表達(dá)能力上實(shí)現(xiàn)大幅提升,復(fù)數(shù) SSM 打開了新的能力空間,二階離散化讓狀態(tài)更新更精確,隱式卷積讓模型更像Transformer。

這讓 SSM 不再只是“高效但弱”,而是“高效且強(qiáng)”。

MIMO 的出現(xiàn),讓線性模型第一次真正吃滿 GPU,推理成本下降,并行推理更高效,更適合 agentic AI、長(zhǎng)上下文、工具鏈調(diào)用。

這對(duì)未來的 AI 應(yīng)用至關(guān)重要。

Mamba?3 指向了一個(gè)非常明確的趨勢(shì)。動(dòng)態(tài)狀態(tài)、線性復(fù)雜度、高算強(qiáng)度推理、混合架構(gòu)(SSM + Attention)。

這可能就是下一代 AGI 模型的基礎(chǔ)。

Mamba?3 的出現(xiàn)意味著推理成本下降 → AI 應(yīng)用規(guī)模擴(kuò)大、狀態(tài)跟蹤增強(qiáng) → 更智能的 agent、硬件效率提升 → 更快商業(yè)落地。

它不僅是一個(gè)學(xué)術(shù)成果,更是一個(gè)產(chǎn)業(yè)信號(hào)。

Mamba?3 不是終點(diǎn),而是 SSM 路線的重大進(jìn)化。 它展示了“后Transformer”架構(gòu)的雛形,也讓我們第一次看到線性模型真正具備挑戰(zhàn) Transformer 的可能性。

未來的模型可能是SSM + Attention +可微分程序+外部記憶。

而 Mamba?3,就是邁向這一未來的關(guān)鍵一步。

如果說 Transformer 開啟了大模型時(shí)代,那么 Mamba?3 可能正在開啟“后 Transformer 時(shí)代”的序幕。(END)

參考資料: https://openreview.net/forum?id=HwCvaJOiCj&utm_source


關(guān)于波動(dòng)智能——

波動(dòng)智能旨在建立一個(gè)基于人類意圖與反應(yīng)的真實(shí)需求洞察及滿足的價(jià)值體系,融合人工智能與意識(shí)科學(xué),構(gòu)建覆蓋情緒識(shí)別、建模與推薦的智能引擎,自主研發(fā)面向社交、電商等場(chǎng)景的多模態(tài)意圖識(shí)別引擎、意圖標(biāo)簽系統(tǒng)及意圖智能推薦算法,形成從情緒采集、意圖建模到商業(yè)轉(zhuǎn)化的完整解決方案。波動(dòng)智能提出“意圖是連接人、物與內(nèi)容的新型接口”,其產(chǎn)品廣泛應(yīng)用于AI社交、個(gè)性化內(nèi)容推薦、虛擬陪伴、電商體驗(yàn)優(yōu)化等領(lǐng)域。波動(dòng)智能正在探索“EMO-as-a-Service”技術(shù)服務(wù)架構(gòu),賦能企業(yè)實(shí)現(xiàn)更高效的用戶洞察與精準(zhǔn)情緒交互,推動(dòng)從功能驅(qū)動(dòng)到意圖驅(qū)動(dòng)的產(chǎn)業(yè)范式升級(jí)。

親愛的人工智能研究者,為了確保您不會(huì)錯(cuò)過*波動(dòng)智能*的最新推送,請(qǐng)星標(biāo)*波動(dòng)智能*。我們傾心打造并精選每篇內(nèi)容,只為為您帶來啟發(fā)和深思,希望能成為您理性思考路上的伙伴!

加入AI交流群請(qǐng)掃碼加微信

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
一分錢不要,也得讓你長(zhǎng)記性!業(yè)主車位被霸占10天,奧迪車大變臉

一分錢不要,也得讓你長(zhǎng)記性!業(yè)主車位被霸占10天,奧迪車大變臉

火山詩話
2026-03-29 17:05:43
全美50州爆發(fā)抗議示威,高喊特朗普下臺(tái),萬斯宣布撤軍伊朗

全美50州爆發(fā)抗議示威,高喊特朗普下臺(tái),萬斯宣布撤軍伊朗

莉莉和奶奶
2026-03-29 19:19:10
2年和領(lǐng)導(dǎo)開房410次!從臨時(shí)工“睡”成處長(zhǎng),南航女經(jīng)理升遷之路

2年和領(lǐng)導(dǎo)開房410次!從臨時(shí)工“睡”成處長(zhǎng),南航女經(jīng)理升遷之路

就一點(diǎn)
2026-03-28 17:42:50
汪峰定律!李榮浩撕?jiǎn)我兰兦謾?quán),吳向飛撕李榮浩!汪峰又開演唱會(huì)

汪峰定律!李榮浩撕?jiǎn)我兰兦謾?quán),吳向飛撕李榮浩!汪峰又開演唱會(huì)

露珠聊影視
2026-03-29 20:39:00
美軍被伊朗暴揍,讓全球產(chǎn)生誤判,美國這么拉垮,中國肯定也不行

美軍被伊朗暴揍,讓全球產(chǎn)生誤判,美國這么拉垮,中國肯定也不行

胖福的小木屋
2026-03-29 02:14:07
3月30日俄烏最新:川普要?jiǎng)邮至耍?>
    </a>
        <h3>
      <a href=西樓飲月
2026-03-29 22:00:44
43歲熟女張萌熟透了!深V開到腰,這身材誰頂?shù)米。?>
    </a>
        <h3>
      <a href=娛樂領(lǐng)航家
2026-03-29 22:00:03
伊朗總統(tǒng)指責(zé)革命衛(wèi)隊(duì)總司令,強(qiáng)調(diào)若不停火,伊朗經(jīng)濟(jì)將崩潰

伊朗總統(tǒng)指責(zé)革命衛(wèi)隊(duì)總司令,強(qiáng)調(diào)若不停火,伊朗經(jīng)濟(jì)將崩潰

山河路口
2026-03-29 16:15:55
蘋果加這兩樣煮水喝,沾床就睡!連打雷都叫不醒!

蘋果加這兩樣煮水喝,沾床就睡!連打雷都叫不醒!

阿天愛旅行
2026-03-29 00:12:41
油價(jià)下跌2.79元/升,近4年最大下降后全漲回來,下次4月7日調(diào)價(jià)

油價(jià)下跌2.79元/升,近4年最大下降后全漲回來,下次4月7日調(diào)價(jià)

豬友巴巴
2026-03-28 15:35:03
俄警告韓國勿向?yàn)跆峁┲旅晕淦?>
    </a>
        <h3>
      <a href=財(cái)聯(lián)社
2026-03-29 09:30:26
被驅(qū)逐的伊朗大使拒離境后被強(qiáng)行從館內(nèi)拖出,頭部疑被打

被驅(qū)逐的伊朗大使拒離境后被強(qiáng)行從館內(nèi)拖出,頭部疑被打

桂系007
2026-03-30 04:00:12
伍茲車禍被捕!名嘴吐槽:13億身家請(qǐng)個(gè)司機(jī)很難嗎?活著不好嗎?

伍茲車禍被捕!名嘴吐槽:13億身家請(qǐng)個(gè)司機(jī)很難嗎?活著不好嗎?

仰臥撐FTUer
2026-03-29 19:56:03
又一名院士栽了,軍工院士劉國治被中科院除名

又一名院士栽了,軍工院士劉國治被中科院除名

張嘴說財(cái)經(jīng)
2026-03-29 19:33:47
超級(jí)厄爾尼諾正在路上!極端天氣頻現(xiàn),今年或許會(huì)更熱

超級(jí)厄爾尼諾正在路上!極端天氣頻現(xiàn),今年或許會(huì)更熱

風(fēng)向觀察
2026-03-29 19:39:51
我今年55了,想用血淚教訓(xùn)告訴你:不要跟任何人,包括你的父母、子女、枕邊人,分享這4件事

我今年55了,想用血淚教訓(xùn)告訴你:不要跟任何人,包括你的父母、子女、枕邊人,分享這4件事

東林夕亭
2026-03-27 09:07:57
廣鐵致歉受強(qiáng)降雨龍卷風(fēng)影響部分列車晚點(diǎn),乘客講述隧道內(nèi)停車斷電4小時(shí)經(jīng)歷

廣鐵致歉受強(qiáng)降雨龍卷風(fēng)影響部分列車晚點(diǎn),乘客講述隧道內(nèi)停車斷電4小時(shí)經(jīng)歷

澎湃新聞
2026-03-29 21:18:27
“最快女護(hù)士”張水華辭職86天交出矚目成績(jī)單:參加4場(chǎng)馬拉松,奪得2個(gè)冠軍1次打破賽會(huì)紀(jì)錄,已獲20萬元+價(jià)值10萬元汽車

“最快女護(hù)士”張水華辭職86天交出矚目成績(jī)單:參加4場(chǎng)馬拉松,奪得2個(gè)冠軍1次打破賽會(huì)紀(jì)錄,已獲20萬元+價(jià)值10萬元汽車

極目新聞
2026-03-29 14:53:27
白宮深夜發(fā)一條4秒“腳丫子”視頻,然后刪了!全世界睡不著覺了

白宮深夜發(fā)一條4秒“腳丫子”視頻,然后刪了!全世界睡不著覺了

混沌錄
2026-03-28 19:43:14
辦公室不雅行為!攝像頭忘關(guān)視頻曝光,這些人把“體面”丟了一地

辦公室不雅行為!攝像頭忘關(guān)視頻曝光,這些人把“體面”丟了一地

就一點(diǎn)
2026-03-29 00:19:23
2026-03-30 04:32:49
人工智能學(xué)家 incentive-icons
人工智能學(xué)家
人工智能領(lǐng)域權(quán)威媒體
4616文章數(shù) 37440關(guān)注度
往期回顧 全部

科技要聞

馬斯克承認(rèn)xAI"建錯(cuò)了",11位創(chuàng)始人均離職

頭條要聞

伊朗議長(zhǎng):美航母遭受巨大損失 我們絕不接受屈辱

頭條要聞

伊朗議長(zhǎng):美航母遭受巨大損失 我們絕不接受屈辱

體育要聞

絕殺衛(wèi)冕冠軍后,他單手指天把勝利獻(xiàn)給父親

娛樂要聞

汪峰定律再現(xiàn)!李榮浩喊話單依純侵權(quán)

財(cái)經(jīng)要聞

Kimi、Minimax 們的算力荒

汽車要聞

嵐圖泰山X8配置曝光 四激光雷達(dá)/華為新一代座艙

態(tài)度原創(chuàng)

房產(chǎn)
時(shí)尚
家居
手機(jī)
教育

房產(chǎn)要聞

首日430組來訪,單日120組認(rèn)籌!海口首個(gè)真四代,徹底爆了!

來到1980的周也,好毛利蘭

家居要聞

曲線華爾茲 現(xiàn)代簡(jiǎn)約

手機(jī)要聞

驍龍8 Elite Gen6系列規(guī)格大揭秘:LPDDR6、Adreno 850,都來了!

教育要聞

建議給家長(zhǎng)放春秋假,否則的話,學(xué)生放春秋假就失去意義

無障礙瀏覽 進(jìn)入關(guān)懷版