337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

清華團隊:1.5B 模型新基線!用「最笨」的 RL 配方達到頂尖性能

0
分享至



如果有人告訴你:不用分階段做強化學習、不搞課程學習、不動態調參,只用最基礎的 RL 配方就能達到小模型數學推理能力 SOTA,你信嗎?

清華團隊用兩個 1.5B 模型給出了答案:不僅可行,還特別高效。

  • 核心發現: 單階段訓練 + 固定超參數 = SOTA 性能 + 省一半算力
  • 意外之喜: 訓練曲線平滑得像教科書,4000 步沒遇到任何 "典型問題"
  • 關鍵啟示: 充分 scale 的簡單 baseline,可能比我們想象的強大得多





  • 技術博客:https://relieved-cafe-fe1.notion.site/JustRL-Scaling-a-1-5B-LLM-with-a-Simple-RL-Recipe-24f6198b0b6b80e48e74f519bfdaf0a8
  • 開源模型:https://huggingface.co/collections/hbx/justrl
  • 評測腳本:https://github.com/thunlp/JustRL

背景:RL 訓練小模型的 "技術軍備競賽"

2025 年初,DeepSeek-R1 開源后,如何用 RL 訓練 1.5B 級別的推理模型成為了熱門研究方向。短短幾個月內,這個領域經歷了快速的技術演進:早期的工作嘗試超參數調優和長度控制;隨后出現了多階段漸進訓練,每個階段調整數據難度和 RL 超參數;也有方法引入了課程學習,用部分解作為提示精心設計難度梯度;最激進的做法直接將 rollout 數量提升到 512 次,用算力進行暴力探索。



近期工作用到的技術對比

這些方法都取得了不錯的效果,性能在不斷刷新。 動態采樣、KL 重置、自適應懲罰、長度控制…… 各種穩定技術和優化 trick 被逐一引入。每個新工作都在前人基礎上增加新的模塊和機制,整個訓練 pipeline 變得越來越復雜。

然而,這種復雜度的增長也帶來了困惑:這些技術真的都是必要的嗎?當不同工作組合使用不同的技術子集時,我們很難分辨哪些是解決根本問題的,哪些只是在修補其他設計選擇帶來的副作用。更重要的是,如果 baseline 本身就不穩定,那么為了穩定它而加入的技術,可能只是在治標而非治本。

清華團隊帶著一個樸素的想法開始了這項工作:"如果我們用最基礎的配方,但訓練得足夠充分,能到什么水平?"

于是就有了JustRL—— 名字的意思是 "就這樣"。

方法:極簡到極致的訓練配方

JustRL 的設計哲學是 "減到不能再減"。研究者刻意避免了近期工作中常見的復雜技術,只保留了最基礎的組件。

訓練配方簡單到令人意外: 算法使用標準的 GRPO,沒有任何魔改;訓練只有一個階段,從頭到尾連續進行;超參數完全固定,不做任何動態調整;數據來自常規的數學問題集,不進行離線難度篩選、不做數據增強、不使用 dynamic sampling。

更關鍵的是,同一套超參數在兩個完全不同的起點上都有效。 第一個實驗使用 DeepSeek-R1-Distill-Qwen-1.5B 作為基座,這是一個相對較弱的起點(AIME 2024 準確率 29%);第二個實驗使用 OpenMath-Nemotron-1.5B,這已經是一個相當強的基座(AIME 2024 準確率 61%)。研究者沒有針對不同模型調整任何參數,在 9 個數學推理基準(AIME 2024/2025、AMC 2023、MATH-500、Minerva Math、OlympiadBench、HMMT/CMIMC/BRUMO 2025)上的全面評測顯示,JustRL 達到了 1.5B 模型的最高水平。



一個關鍵問題:會不會是用了更多算力?正好相反,我們用了更少。

從弱基座起步的 JustRL-DeepSeek-1.5B,最終在 9 項基準上平均達到 54.87%,超越了采用 9 階段訓練的 ProRL-V2(53.08%)。更值得注意的是計算效率:JustRL 使用的總 token 預算約為 1.4E+11,僅為 ProRL-V2 的一半,為 BroRL 的五分之一。在算力 - 性能的權衡上,JustRL 達到了一個新的平衡點。

從強基座起步的 JustRL-Nemotron-1.5B 表現更加出色,平均準確率達到 64.32%,略微超過使用課程學習的 QuestA(63.81%)。關鍵的差異在于,QuestA 需要完整的推理軌跡來構建 hint,還要分階段調整提示難度;而 JustRL只需要標準的問題與標答,不需要額外的數據工程,總 token 預算也相對較小。

整個訓練在 32 張 A800-80GB GPU 上進行,每個模型訓練約 15 天。相比一些需要多階段訓練、頻繁調參的方法,JustRL 的工程復雜度和計算開銷都顯著更低。這些結果的意義不僅在于數字本身,更在于它們揭示的一個可能性:很多時候,我們可能低估了簡單方法在充分 scale 下的潛力。

意外發現:4000 步訓練,異常平穩

也許比最終性能更令人驚訝的是訓練過程本身。研究者詳細記錄了 JustRL-DeepSeek-1.5B 整個 4000 步 RL 過程中的關鍵動態指標:策略熵、平均獎勵、響應長度。

策略熵始終在 1.2-1.4 范圍內健康震蕩,沒有出現向上漂移(探索崩塌)或向下崩潰(過早收斂);平均獎勵從 - 0.6 單調上升到 +0.4,雖然有噪聲但趨勢清晰,沒有長時間的 plateau 或突然的下跌;響應長度從初始的 8000 tokens 自然壓縮到 4000-5000 tokens,并穩定在這個范圍,這一切都是在沒有使用 overlong penalty 的情況下發生的,僅僅設置了最大 16k 的上下文長度。



JustRL-DeepSeek-1.5B 的訓練 dynamic

這與很多現有工作報告的訓練困難形成鮮明對比。

  • ProRL:"我們觀察到熵崩潰和訓練不穩定性…"
  • BroRL:"訓練到瓶頸只能加 rollout 加大探索…"
  • QuestA:"需要課程學習避免熵崩塌(簡單題)或者減緩學習效率(難任務)…"

而在 JustRL 的訓練中,這些問題都沒有出現。這給了我們一個有趣的觀察:也許在某些配置下,當 baseline 足夠簡單、訓練規模足夠充分時,一些在復雜系統中出現的穩定性問題可能就不容易發生。

一個有趣的插曲:加 "優化" 反而更差

訓練過程中,團隊嘗試了兩個 "按常理應該有幫助" 的修改。這兩個實驗的結果頗具啟發性。

第一個實驗是加入顯式的長度懲罰。 動機很直接:不少工作證明長度懲罰有效,那么添加一個懲罰項應該能讓模型輸出更簡潔,提高訓練效率。結果卻令人意外:性能從 55% 下降到 50%。深入分析發現,顯式懲罰導致了熵崩塌,熵值從 1.2-1.4 降到 0.4-0.6 ,探索空間被過早壓縮。模型還沒來得及充分探索有效的解題策略,就被迫收斂到更短的響應上。

第二個實驗是換用更寬松的驗證器。 邏輯同樣合理:減少假陰性(正確答案被誤判為錯誤)應該能提供更清晰的學習信號。但性能繼續下滑到 45%。可能的原因包括:更寬松的驗證器雖然減少了誤判,但也降低了學習信號的細粒度 ——"幾乎正確" 和 "完全正確" 不再有明顯區分;另一種可能是,嚴格的格式要求實際上在迫使模型發展更魯棒的內部推理,而寬松的驗證器消除了這種壓力。



兩組 ablation 效果

這說明什么?一方面,ablation 在接近 2ksteps 的尺度上才開始分道揚鑣,意味著現有的 RL tricks ablation 可能在小規模上(幾十 / 幾百步)得到的結論不一定適合于大規模 scaling,要驗證 tricks 的作用可能長期才能看出區別;另一方面,不是說這些技術本身不好(它們在其他工作中確實有效),而是:

  • 技術的價值高度依賴于baseline 的特性
  • 在一個穩定的 baseline 上,某些 "優化" 可能適得其反
  • 不是所有看起來合理的東西都該加

這個工作想說什么?

不是要證明 "簡單永遠最好"

  • 不是說: "復雜方法都沒用"
  • 而是說: "我們可能低估了簡單方法在充分 scale 下的潛力"
  • 不是說: "大家都做錯了"
  • 而是說: "建立清晰的簡單 baseline,能更準確地評估復雜技術的價值"
  • 不是說: "永遠別用復雜技術"
  • 而是說: "先驗證簡單方法的極限在哪,再決定是否需要復雜度"

寫在最后:關于 "夠用" 的哲學

"Perfection is achieved, not when there is nothing more to add, but when there is nothing left to take away.“
— Antoine de Saint-Exupéry, Airman's Odyssey

JustRL 不是要證明 "簡單就是答案"。它想提醒的是:在不斷追求技術創新的同時,別忘了回頭看看 —— 最樸素的方法,在足夠的努力下,能做到什么程度。

也許在 RL 訓練小模型這個領域,我們一直在做加法:加階段、加調度、加采樣策略、加穩定技巧。也許現在是時候試試奧卡姆剃刀的做法:減到不能再減,看看還剩什么。JustRL 的發現是:剩下的,可能已經夠用了。

如果你正在做 RL,不妨試試:先把簡單配方訓練充分,看看它能帶你走多遠。

也許你會發現:夠用了。

也許你會發現:還不夠,但現在你知道差在哪了。

無論哪種,都是有價值的收獲。"如無必要,勿增實體"。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
杜月笙在河邊釣魚,遇到地痞要保護費,杜月笙:找你們老板過來

杜月笙在河邊釣魚,遇到地痞要保護費,杜月笙:找你們老板過來

千秋文化
2026-03-25 21:29:50
2026 世界杯最強攻擊線TOP 10 ,阿根廷僅第 5,第一毫無懸念

2026 世界杯最強攻擊線TOP 10 ,阿根廷僅第 5,第一毫無懸念

瀾歸序
2026-03-29 04:03:53
小孩子能口無遮攔到什么程度!網友:恨不得當場找個地縫鉆進去

小孩子能口無遮攔到什么程度!網友:恨不得當場找個地縫鉆進去

夜深愛雜談
2026-03-28 19:52:52
現在國企的工作也不是那么好干啊

現在國企的工作也不是那么好干啊

微微熱評
2026-03-28 21:57:50
為娶學生拋棄懷孕發妻,16年后出軌他人妻,卻說:我從不玩弄女性

為娶學生拋棄懷孕發妻,16年后出軌他人妻,卻說:我從不玩弄女性

歷史人文2
2026-03-28 13:24:06
伊朗鋼鐵工業被重創!三大鋼廠遭“地毯轟炸”,70%產能一夜歸零

伊朗鋼鐵工業被重創!三大鋼廠遭“地毯轟炸”,70%產能一夜歸零

說歷史的老牢
2026-03-28 21:54:21
4月1日起,高血壓糖尿病患者必辦三件事,藥費直接省一半

4月1日起,高血壓糖尿病患者必辦三件事,藥費直接省一半

今日養生之道
2026-03-28 07:00:22
中國拒絕出席G7峰會,法國表示將采取措施應對

中國拒絕出席G7峰會,法國表示將采取措施應對

二大爺觀世界
2026-03-28 22:45:28
王思懿在采訪里親口承認,當年拍水滸時和演武松的丁海峰真動了心

王思懿在采訪里親口承認,當年拍水滸時和演武松的丁海峰真動了心

東方不敗然多多
2026-03-29 10:05:42
東契奇交易的最大受害者!私人飛機變公共航空,庫班引狼入室被坑

東契奇交易的最大受害者!私人飛機變公共航空,庫班引狼入室被坑

你的籃球頻道
2026-03-29 07:39:35
突發!3次了!禁賽東契奇!

突發!3次了!禁賽東契奇!

左右為籃
2026-03-29 10:57:22
李梓萌,私生活傳聞太荒唐

李梓萌,私生活傳聞太荒唐

做一個合格的吃瓜群眾
2026-03-21 19:20:55
委內瑞拉石油,引爆美方4個煉油廠,特朗普做的孽,終于來了報應

委內瑞拉石油,引爆美方4個煉油廠,特朗普做的孽,終于來了報應

阿握聊事
2026-03-28 12:27:56
伊朗:擊中一架美國F-16戰斗機,一架美國MQ-9無人機;擊斃5名“恐怖分子”,抓捕19名美以雇傭兵

伊朗:擊中一架美國F-16戰斗機,一架美國MQ-9無人機;擊斃5名“恐怖分子”,抓捕19名美以雇傭兵

臺州交通廣播
2026-03-29 00:55:06
張水華被男選手跟跑!比賽解說怒斥:沒有紳士風度 想蹭她的熱度

張水華被男選手跟跑!比賽解說怒斥:沒有紳士風度 想蹭她的熱度

念洲
2026-03-29 08:30:55
皇家馬德里中場大將后悔做出手術決定

皇家馬德里中場大將后悔做出手術決定

本澤體育
2026-03-29 08:51:36
湖人87-109大勝助西部三隊受益,火箭重獲主動權

湖人87-109大勝助西部三隊受益,火箭重獲主動權

余蹮搞笑段子
2026-03-29 08:58:56
向華強談張雪峰突然離世,直言其飲食不健康,重油重鹽有大問題

向華強談張雪峰突然離世,直言其飲食不健康,重油重鹽有大問題

娛樂E君
2026-03-27 12:47:59
時代最令人失望者!加州州長怒批馬斯克:親手將美國電車王冠讓給了中國

時代最令人失望者!加州州長怒批馬斯克:親手將美國電車王冠讓給了中國

快科技
2026-03-27 14:18:12
薩巴倫卡奪冠登頂積分榜,高芙升至第三,鄭欽文排名第26

薩巴倫卡奪冠登頂積分榜,高芙升至第三,鄭欽文排名第26

老癘體育解說
2026-03-29 06:11:45
2026-03-29 11:24:49
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12620文章數 142598關注度
往期回顧 全部

科技要聞

馬斯克承認xAI"建錯了",11位創始人均離職

頭條要聞

副部級高官任上落馬 十天前仍參加省政協會議

頭條要聞

副部級高官任上落馬 十天前仍參加省政協會議

體育要聞

全球第二大車企,也救不了這支德甲隊?

娛樂要聞

陳牧馳陳冰官宣得子 曬一家三口握拳照

財經要聞

Kimi、Minimax 們的算力荒

汽車要聞

嵐圖泰山X8配置曝光 四激光雷達/華為新一代座艙

態度原創

健康
教育
旅游
藝術
房產

干細胞抗衰4大誤區,90%的人都中招

教育要聞

“家破成這樣,還好意思拍視頻?”家長曬學霸孩子,反被嘲太邋遢

旅游要聞

【春游記】東北“報春第一花”冰上綻放

藝術要聞

鄧小平1977年信件揭示與華國鋒、葉劍英關系的轉變

房產要聞

首日430組來訪,單日120組認籌!海口首個真四代,徹底爆了!

無障礙瀏覽 進入關懷版