337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

表格建模也能Scaling?樹模型的時代要改變了

0
分享至



一張 H100 相當于多少個 Hadoop 實例?

讓我們先從一個有趣的問題開始:站在 2026 年的當下,一張 H100 GPU 的單卡算力(FP16)大約相當于多少個 Hadoop 實例?

答案是:約 200 個( 單卡 H100 vs 一臺 96 核 CPU 實例)。

這個數字背后隱藏著一個值得深思的現象:過去幾年中,AI 的快速發展極大推動了算力的指數級增長。然而在結構化數據建模這一領域,行業主流方法仍然是以樹模型為核心的垂直場景化解決方案。

這就形成了一個有趣的 "反差":一邊是各大科技公司和大量初創企業正通過不斷升級的大語言模型推動 AI 生產力的躍遷,另一邊是在金融、醫療、電商、物流、工業制造等高價值行業中,真正承載智能化任務的,仍主要是以 XGBoost、隨機森林為代表的樹模型。這種反差讓我們不得不開始思考:當算力革命發生時,結構化數據建模的 "平衡點" 是否也該被重新定義?

"苦澀的教訓" 與結構化數據的困境

從更宏觀的角度看,大模型研發所遵循的核心思想,可以追溯到 Richard Sutton 提出的 “苦澀的教訓”(The Bitter Lesson):在 AI 的長期發展中,那些能夠隨著計算規模持續擴展的通用學習方法,往往最終會超越依賴人類直覺與領域知識精心設計的系統。

大語言模型的成功正是這一規律的典型體現 —— 通過統一架構與大規模數據訓練,LLM 在 NLP 領域實現了跨任務、跨場景的能力遷移。然而,當企業在實際業務中解決監督學習問題時,情況卻呈現出明顯反差。即使在嘗試引入深度學習時,也往往需要依賴復雜的數據流水線、特定架構設計以及大量領域知識的引入。這相當于用 "手工作坊" 的方式,去應對 "工業化生產" 的需求。于是出現了一個頗為有趣的現象:一方面,各大科技公司和大量初創企業正通過不斷擴大的大語言模型推動 AI 生產力的躍遷;另一方面,在金融、醫療、電商、物流、工業制造、農業等高價值行業的重要社會經濟領域中,真正承載智能化場景任務的,仍主要是以 XGBoost、隨機森林為代表的基于樹的表格分類模型或垂域深度學習分類模型,這進一步激發了我們探索結構化數據模型 scaling 上限的興趣。

回顧歷史,XGBoost 在 2014 年被廣泛視為機器學習領域中算力、算法與數據三要素之間的一個 “平衡點”。但十二年后的今天,隨著 GPU 算力的快速迭代并帶來數量級提升,這一平衡點是否已經發生改變?結構化數據建模是否也可能像 NLP 和 CV 一樣,通過新的計算范式實現突破?回到開篇的問題:當單張 H100 與一臺 96 核 CPU 服務器之間已經存在約 200 倍的 FP16 算力差距時,一個自然的想法是 —— 是否可以將 GPU 的大規模并行算力真正引入結構化數據建模,并通過預訓練范式重新平衡算力、數據與算法這三大核心要素。

千億級樣本預訓練實踐

本文將重點介紹浙大 X 螞蟻 AIforData 團隊的探索:基于螞蟻集團海量的異構結構化數據以及豐富的下游業務場景,實現了千卡 GPU 集群下百億級樣本規模的結構化數據預訓練,并系統評估了預訓練模型在下游任務中的表現,實驗結果表明:

1. 在工業級表格數據集上,預訓練模型的性能可以穩定且顯著地超越傳統樹模型

2. 表格數據預訓練模型呈現出明顯的 scaling law

3. 行為序列預訓練模型同樣表現出良好的 scaling law

工作 1: 表格數據預訓練與 Scaling Law

https://arxiv.org/abs/2602.22777

KMLP(Kolmogorov-Arnold Network with gated MLP)是面向互聯網超大規模表格數據的混合深度學習架構(中稿 The Web Conference 2026)。面對工業場景中數十億樣本、數千異構特征的建模挑戰,KMLP 創新性地將淺層 KAN 作為前端特征工程構造器,結合 gMLP 主干網絡捕獲高階交互,實現了端到端的自動化特征表示學習。



在包含 20 億樣本的真實信貸評分數據集上,KMLP 展現出顯著的規模優勢:隨著數據量級提升,其相對于傳統 GBDT 模型的性能優勢持續擴大。這一發現驗證了 KMLP 作為可擴展深度學習范式的潛力,為大規模動態互聯網表格數據建模提供了新路徑。



KMLP 的核心價值在于解決了傳統方法的雙重瓶頸:一方面克服了 GBDT 在超大規模數據集上分布式計算效率問題,另一方面通過可學習激活函數擺脫了對人工特征工程的依賴,實現了特征異構性與交互建模的統一。其相對于傳統 GBDT 模型的性能優勢持續擴大;解決了 GBDT 分布式計算效率問題和人工特征工程依賴。

工作 2: 行為序列預訓練與 Scaling Law

https://arxiv.org/abs/2412.12468

用戶行為時序數據,作為刻畫用戶的關鍵結構化數據之一,對于用戶理解與建模起著重要作用。在用戶建模時如何利用以及如何利用好更多的用戶行為序列數據,是一個重要的研究課題。

FOUND:時序數據的語義級應用

FOUND(Transferable and Forecastable User Targeting Foundation Model)是 AIforData 團隊發布在 The Web Conference 2025(WebConf 25)中的工作,面向互聯網平臺中多種來源的序列數據和結構化數據,構建了工業級、具有預測性的用戶表征框架。

當前許多用戶理解方法面臨兩大顯著挑戰:(i) 跨領域和跨場景的可遷移性及泛化能力較弱 (ii) 在實際應用中的預測能力不足。為了增強跨領域遷移能力,FOUND 框架整合了多場景用戶數據,并在用戶建模時創新性地通過對比學習預訓練將其與根據序列語義整理得到的文本進行對齊。為了提高預測性,每個用戶的文本描述基于用戶未來的行為推導得出,而用戶表征則由歷史信息構建而成,使用過去 - 未來語義對齊的方式構造訓練樣本對。

由該框架產出的用戶表征在真實場景 benchmark 和業務上均獲得了增益。同時引入自然語言監督的方式也使得模型天然支持人群圈選這一用戶理解任務,該預訓練框架支持的圈人能力在下游取得了大量收益,支持超過 50 個業務場景。



序列數據的 Scaling Law

在有了上述預訓練框架后,我們思考如何將綜合互聯網平臺中更多更長的用戶行為序列引入到模型中來。針對多種來源的序列數據,各自設計編碼器會存在訓練成本過高、表達空間不統一等缺陷,同時如何發揮更多輸入序列數據的最大性能也是一個問題,即需要探索輸入序列本身存在的 Scaling Law 以及如何突破可能存在的 Scaling 瓶頸。

在實驗探索過程中我們發現,輸入序列長度 / 用戶數目在數量級較少時,性能隨著天數 / 用戶數目(指數)近似線性提升,Scaling 現象明顯;但在輸入序列增長、用戶數目增加時增長緩慢,出現 Scaling 瓶頸。為解決該問題,除了增加參數這種模型層面的 Scaling,提升輸入用戶數據的信息密度,即對用戶信息進行壓縮,不失為一種節約成本且輕量的方案。在使用 RQ-VAE 方案進行用戶序列數據壓縮后,我們觀測到出現數據增長瓶頸得到延緩,說明了壓縮帶來突破瓶頸的 Densing Law 現象。

核心結論:在輸入序列長度 / 用戶數目在數量較少時性能隨著天數指數的 Scaling 現象明顯,輸入序列長度和用戶數目增加至較大量級時出現 Scaling 瓶頸,而壓縮數據可以通過提升信息密度帶來突破瓶頸的 Densing Law 現象。





基于以上原始和壓縮輸入的 Scaling Law,我們設計了基于統一用戶量化壓縮的用戶理解方案,將用戶的多源序列等數據使用設計的 MRQ-VAE 方案壓縮成語義 token ID 提升信息密度,并在此基礎之上 Scaling 得到了更佳性能的用戶模型。產出的通用用戶表征在 80% 以上真實場景 benchmark 中相比之前原始數據輸入版本均有提升,并在數字金融、支付安全、營銷推薦、廣告等業務中全面應用。

總結與展望

回到開篇的問題:當算力已經發生數量級變化時,結構化數據建模的范式是否也該隨之改變?

螞蟻 x 浙大 AIforData 團隊的探索給出了肯定的答案。Scaling Law 正在從 NLP、CV 延伸到結構化數據領域—— 這或許意味著,那個依賴人工特征工程和場景化調參的時代,真的要過去了。

"當算力天平已經傾斜,平衡點也該重新定義。"

未來,隨著算力的持續增長和預訓練范式的成熟,我們有理由相信:結構化數據建模將迎來屬于自己的 "大模型時刻"。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
第一次和男友同居:我直接震驚,原來男女私下這么可愛到犯規

第一次和男友同居:我直接震驚,原來男女私下這么可愛到犯規

阿凱銷售場
2026-04-17 07:03:27
何超蕸離世僅5天,多位港民公開爆料其人品,原來賭王當初沒說謊

何超蕸離世僅5天,多位港民公開爆料其人品,原來賭王當初沒說謊

安海客
2026-04-17 10:51:56
隨著東契奇坎寧安申訴成功!聯盟最佳一陣基本確定,華子最大輸家

隨著東契奇坎寧安申訴成功!聯盟最佳一陣基本確定,華子最大輸家

你的籃球頻道
2026-04-17 07:42:31
中方已做最壞準備,一旦中美爆發戰爭,中國三大底牌一個比一個狠

中方已做最壞準備,一旦中美爆發戰爭,中國三大底牌一個比一個狠

草莓信箱
2026-04-14 09:10:54
德國媒體想不通:百年霸主大眾,竟被安徽合肥逼到關廠裁員

德國媒體想不通:百年霸主大眾,竟被安徽合肥逼到關廠裁員

小李子體育
2026-04-15 19:56:11
公司要求起花名,網友說:上班跟進了窯子一樣!

公司要求起花名,網友說:上班跟進了窯子一樣!

黯泉
2026-03-31 21:54:23
被父性侵、被丈夫家暴,死后三天才被發現,“最美趙敏”活的真慘

被父性侵、被丈夫家暴,死后三天才被發現,“最美趙敏”活的真慘

云舟史策
2026-03-13 14:19:19
足協駁回對廖力生,韋世豪的申訴,北京國安應該向上海上港學習

足協駁回對廖力生,韋世豪的申訴,北京國安應該向上海上港學習

足球分析員
2026-04-17 11:00:03
紅薯逆襲?科學研究:堅持吃紅薯,不出半年,或能收獲這5種好處

紅薯逆襲?科學研究:堅持吃紅薯,不出半年,或能收獲這5種好處

健康之光
2026-04-06 18:41:47
2026年1-3月中國大陸訪日游客暴跌55%, 重創日本旅游業?

2026年1-3月中國大陸訪日游客暴跌55%, 重創日本旅游業?

新浪財經
2026-04-16 19:18:18
不堪重富,快船無緣季后賽后雷霆將在今年選秀中獲得樂透簽

不堪重富,快船無緣季后賽后雷霆將在今年選秀中獲得樂透簽

懂球帝
2026-04-16 13:15:15
反向換車的人越來越多了,不是沒錢了,而是終于想通了

反向換車的人越來越多了,不是沒錢了,而是終于想通了

侃故事的阿慶
2026-04-16 11:16:17
中足聯開出罰單!丁海峰停賽1場罰款1萬,飛踹對手背部染紅

中足聯開出罰單!丁海峰停賽1場罰款1萬,飛踹對手背部染紅

奧拜爾
2026-04-16 23:10:47
82%命中率的賭局,誰在收割信息差?

82%命中率的賭局,誰在收割信息差?

體壇觀察猿
2026-04-17 11:38:22
以媒:從媒體上得知與黎停火 以色列高官又驚又怒

以媒:從媒體上得知與黎停火 以色列高官又驚又怒

環球網資訊
2026-04-17 06:28:16
升遷最快的55年上校:60年升大校64年晉少將,73年成空軍司令員

升遷最快的55年上校:60年升大校64年晉少將,73年成空軍司令員

云霄紀史觀
2026-04-16 19:06:38
中國女籃集訓第1天尷尬了!19人只有1人參加,宮魯鳴該懵了?

中國女籃集訓第1天尷尬了!19人只有1人參加,宮魯鳴該懵了?

青梅侃史啊
2026-04-17 11:41:42
中方下最嚴“逐客令”,萬家日企將倒閉,日媒:半導體已“斷糧”

中方下最嚴“逐客令”,萬家日企將倒閉,日媒:半導體已“斷糧”

金錯刀
2026-04-17 09:58:07
新加坡已經成功預測中美沖突,一旦爆發,美稱中國不能攻打美本土

新加坡已經成功預測中美沖突,一旦爆發,美稱中國不能攻打美本土

混沌錄
2026-04-16 16:48:25
以軍稱打死哈馬斯多名指揮官

以軍稱打死哈馬斯多名指揮官

中國國情
2026-04-17 11:30:31
2026-04-17 12:40:49
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12785文章數 142631關注度
往期回顧 全部

科技要聞

Anthropic推出Opus 4.7,坦言依不及Mythos

頭條要聞

毛焦爾當面"逼宮"匈牙利總統:你不配 趕緊辭職走人

頭條要聞

毛焦爾當面"逼宮"匈牙利總統:你不配 趕緊辭職走人

體育要聞

贏下快船,這場很庫里,很格林,很科爾

娛樂要聞

劉德華摯友潘宏彬離世 曾一起租房住

財經要聞

海爾與醫美女王互撕 換血抗衰誰的生意?

汽車要聞

又快又穩的開掛動力! 阿維塔06T全系搭分布式電驅

態度原創

家居
游戲
本地
數碼
公開課

家居要聞

法式線條 時光靜淌

《繕寫室:羊皮卷大師》現已登陸Steam平臺

本地新聞

12噸巧克力有難,全網化身超級偵探添亂

數碼要聞

佳翼推出M.2平裝版ArcherX PCIe擴展卡,利用顯卡陰影下插槽

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版