337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

大模型的無監督強化學習能走多遠?清華團隊給出了系統性答案

0
分享至



強化學習的下一站:從監督到無監督

強化學習正在重塑大模型能力邊界。OpenAI o3、DeepSeek-R1、Gemini 3 等頂尖模型都在用大規模 RLVR(可驗證獎勵強化學習)刷新推理任務的天花板。但所有人都知道,純監督式訓練不可持續。人工標注成本指數級增長,在專業領域獲取可靠標注越來越難。當模型能力逼近甚至超越人類專家時,誰來給它打分?

從 TTRL 開始,無監督 RLVR(Unsupervised RLVR)應運而生,讓模型在沒有人工標注的情況下持續進化。這不僅是降本增效的需求,更是通往超級智能的必經之路。就像預訓練用無標注數據 training 出了 GPT,無監督 RLVR 能否延續這一奇跡?



  • 論文鏈接: https://arxiv.org/abs/2603.08660
  • GitHub: https://github.com/PRIME-RL/TTRL/tree/urlvr-dev
  • X Thread: https://x.com/HBX_hbx/status/2031406636930338828

清華團隊一項最新研究,給這個看似美好的圖景畫出了第一條邊界。研究者系統解剖了無監督 RLVR 的內在機制,發現所有基于模型自身信號的內在獎勵方法,無論多數投票、熵獎勵還是其他變體,都遵循著一條相似的軌跡:訓練初期性能快速攀升,但到達某個臨界點后,開始不可逆地滑落。這不是某個方法的缺陷,而是機制的宿命:它們本質上都在銳化模型已有的偏好,像一個回聲室,讓模型不斷重復自己最初相信的東西。如果初始自信恰好正確,效果驚人;如果錯配,坍塌只是時間問題。

但這不意味著內在獎勵沒有價值。在小規模測試時訓練中,它依然能穩定提升性能,即使模型一開始全是錯的,也能在自我糾偏中進化。更重要的是,研究者找到了一個 “預言指標”,可以在大規模訓練前預判模型的可訓練性,無需跑完整條曲線。

當內在獎勵受限于模型自身的回聲時,外部獎勵方法開始展現不同圖景,比如讓模型利用生成與驗證的不對稱性來錨定獎勵。這類方法正在突破內在獎勵的天花板,讓無監督強化學習真正走向可擴展。

通往超級智能的路上,我們需要的不是盲目相信模型可以自我進化,而是知道什么時候該讓它傾聽自己的回聲,什么時候該把它推向真實世界的驗證。



內在獎勵方法:繁榮表象下的深層問題

過去一年,各種 “內在獎勵” 方法密集涌現。從多數投票到基于模型自信度 / 熵的變體,它們利用模型內在信號來構造 proxy reward,訓練前期性能飆升,甚至一度超過有監督方法

研究者將這些方法根據獎勵的來源歸納為兩類:一類基于 certainty,直接取模型在推理軌跡上的置信度指標作為獎勵;另一類基于 ensemble,用多次 rollout 后的集成結果(如多數投票)來錨定正確。



雖然獎勵的來源是免費的,但是代價卻是昂貴的。在早期訓練性能飆升之后,繼續訓練會觸發典型的 reward hacking:

  • proxy reward 還在持續上漲,真實 performance 卻在崩潰
  • 模型越來越自信,但答案卻越來越離譜
  • 不同內在獎勵方法在不同模型上表現天差地別

更關鍵的是,沒人說得清為什么 work,又為什么 fail

我們做了什么:拆開黑箱,劃清邊界

我們不想只是 “提出新方法刷個點”,我們想回答那個沒人說清的問題:

無監督 RLVR 的 scaling 上限在哪里?如果有上限,邊界在哪里?

為此,我們做了五件事:

  • 統一理論框架:把看似五花八門的內在獎勵方法歸到同一個機制下,揭示它們殊途同歸的本質 —— 銳化模型初始分布,并給出理論收斂邊界。
  • 大規模實證:11 個模型 × 5 種內在獎勵方法 × 超參數掃描,用數據說話,驗證了 “先升后降” 不是偶然,而是普適規律。
  • 畫出安全區:不是所有場景都會崩潰。我們發現,在小規模 test-time training 中,內在獎勵可以安全使用,即使初始全錯也能穩定進化。
  • 化陷阱為路標:rise and fall 不只是風險,它本身就是信息。我們用它提煉出模型先驗指示器,無需跑完整條 RL 曲線,就能預判一個基模是否適合強化學習。
  • 探路替代方案:既然內在獎勵有天花板,我們就看向外部。初步探索基于生成 - 驗證不對稱的外部獎勵方法,看它能否真正突破內在獎勵的 scaling 極限。

四個關鍵發現

發現一:成敗取決于 "confidence-correctness" 對齊程度

我們建立了內在獎勵方法的統一理論,揭示所有內在獎勵方法的本質:銳化分布,即放大模型已有偏好,而非創造新知識。這個機制有個特性:

  • 如果模型初始傾向正確 → 銳化有效,性能提升
  • 如果模型初始傾向錯誤 → 銳化有害,加速崩潰

我們定義模型初始傾向(或者稱為模型先驗)為confidence-correctness 對齊程度,即當我們僅提升模型的自一致性時,有多大可能就能直接做對更多的題目。換句話說,一個先驗比較強的模型,本身已經掌握了解決問題的大部分知識,只是不夠自信以至于說不出正確的答案。

我們測試了 11 個模型、5 種方法、4 個常用的超參數,結論似乎是殘酷的:崩潰不可避免,只是時間問題。即使最穩定的配置也撐不過幾個 epoch。這說明可能不是工程問題,是數學必然。



左:成敗取決于置信度 - 正確性對齊程度;右:單條數據上置信度與正確性隨訓練的演化

? 發現二:小場景里反而安全

Rise and fall 是宿命,但宿命有它的適用范圍。

當訓練數據足夠少,比如 Test-Time Training 這種特定領域場景,內在獎勵方法反而展現出難得的穩定。原因很樸素:只在少量樣本上優化自信度,模型跑不了多遠就到頭了。即便它在這些樣本上變得 “超級自信”,也難以引發全局的策略偏移,OOD 任務上的準確率依然穩穩守住。

更有意思的是一個極端實驗:研究者刻意選了 32 條模型全錯的樣本作為訓練集。也就是說,內在獎勵給出的 proxy reward 從一開始就是錯的。結果呢?OOD 測試集上的性能依然在穩定提升。

這說明,內在獎勵不是在教模型 “什么是對的”,而是在教它 “更相信自己”。即使信錯了,這種自我強化也被牢牢鎖在局部,翻不起大浪。



左:小規模 TTT 穩定提升,不崩潰;右:不同訓練集規模下策略的 KL 偏移

發現三:判斷模型適不適合做 RL

Rise and fall 不只是風險,它本身就是信息。

既然內在獎勵的成敗取決于模型初始的 “置信度 - 正確性” 對齊程度,那能不能用這個對齊度,提前判斷一個基模是否適合做 RL?畢竟,跑一次大規模 RL 的成本太高了,而學界一直缺一個輕量級的預判指標。

研究者找到了一把尺子:模型坍塌步數(Model Collapse Step),去測量一個模型在內在獎勵訓練下,能撐多少步才完全崩潰。邏輯很簡單,如果崩潰越晚,說明模型的初始先驗越好,它本身就掌握更多正確知識,只是不夠自信;而這種先驗,恰恰是標準有監督 RL 能夠放大的東西。換句話說,內在獎勵的崩潰點,就是模型 “RL 可訓練性” 的天然指示器。

結果也印證了這一點。Qwen 這種公認 “適合 RL” 的模型系列,在內在獎勵下撐得更久。更有意思的是,這個指標無需任何 ground truth 標注,預測準確率超過傳統的 pass@k。

把失敗變成路標,把昂貴的試錯變成輕量級的預判。



左:不同基模在無監督內在獎勵訓練下的模型坍塌步數;中:對應基模有監督 RLVR 的性能提升。無監督內在獎勵下崩潰越晚,有監督 RLVR 之后效果越好,預測準確率超過傳統的 pass@k。

發現四:外部獎勵才是 scalable 的方向

如果內在獎勵注定有天花板,那路在何方?

問題的根源在于獎勵的來源。內在獎勵方法用模型自己的置信度來訓練模型自己,這就像一個閉環回聲室,獎勵信號永遠受限于模型已知的東西。你無法用它教會模型真正不知道的知識。

但無監督 RLVR 不止于此。我們把外部獎勵方法歸納為兩類:

  • 利用無標注數據:從海量語料中挖掘獎勵信號。數據越多,獎勵信號越豐富,不會因為模型變強而枯竭。
  • 利用生成 - 驗證不對稱性:讓模型自己生成答案,再用外部工具(編譯器、證明助手、模擬器)驗證并提供環境反饋。這些驗證器不會因為模型變強而失效,它們的判斷永遠客觀。

我們初步測試了自驗證方法,結果展現出一條截然不同的曲線:持續改進,沒有崩潰。原因很樸素,獎勵不來自 “模型有多自信”,而來自 “答案能否通過客觀驗證”。想出解法可能很難,但檢查對錯往往簡單;這種不對稱性,把模型的進化錨定在真實世界的鐵律上,而不是自己的回聲里。

內在獎勵追問 “你相信自己嗎”,外部獎勵追問 “這是真的嗎”。通往 scalable 的無監督強化學習,答案或許就在后者。



寫在最后:邊界之外

我們花了許多篇幅去描繪無監督強化學習的邊界。但這張地圖的價值,從來不在于告訴你 "此路不通",而在于回答:在什么條件下,哪條路通

一個系統能否通過審視自己而變得更好,取決于它最初的判斷有多準確。內在獎勵方法失敗的原因,恰恰是它們成功的原因,都是同一個機制:自我強化。區別只在于,被強化的是真理還是偏見。

當我們認清內在獎勵的宿命,才真正看清外部獎勵的星辰大海。通往 scalable 的無監督強化學習,需要的不是盲目相信模型可以自我進化,而是知道什么時候該讓它傾聽自己的回聲,什么時候該把它推向真實世界的驗證。

內在與外部不是對立,而是工具箱里的不同工具。認清邊界,不是為了止步,而是為了在邊界內自由創造,在邊界外尋找新的可能

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
官方:CCTV16轉播U23國足vs朝鮮U23

官方:CCTV16轉播U23國足vs朝鮮U23

懂球帝
2026-03-27 11:49:27
這三個生肖人不能養貓,普賢菩薩:不是養不起,是相生相克,因果相撞

這三個生肖人不能養貓,普賢菩薩:不是養不起,是相生相克,因果相撞

古怪奇談錄
2025-09-26 13:03:13
誰贏,他們幫誰,伊朗等來最大強援,美陷入死局,后悔也來不及了

誰贏,他們幫誰,伊朗等來最大強援,美陷入死局,后悔也來不及了

阿傖說事
2026-03-28 01:58:57
認清六合彩違法本質:涉賭必追責,廣東多地判例敲響警鐘

認清六合彩違法本質:涉賭必追責,廣東多地判例敲響警鐘

花小貓的美食日常
2026-03-27 18:37:58
國企老總收法國間諜18億賄賂,大肆出賣國家利益,后來如何

國企老總收法國間諜18億賄賂,大肆出賣國家利益,后來如何

老黃有話
2024-04-09 08:00:03
我自駕西藏,遇徒步女大學生搭車,同行3天后,才知自己躲過一劫

我自駕西藏,遇徒步女大學生搭車,同行3天后,才知自己躲過一劫

千秋文化
2026-03-09 20:53:50
鐘楚曦馬爾代夫度假,大尺度泳衣大秀好身材,大長腿太吸睛!

鐘楚曦馬爾代夫度假,大尺度泳衣大秀好身材,大長腿太吸睛!

圓夢的小老頭
2026-03-02 22:32:57
記者:盧卡庫拒絕回到那不勒斯進行恢復,他將遭到俱樂部罰款

記者:盧卡庫拒絕回到那不勒斯進行恢復,他將遭到俱樂部罰款

懂球帝
2026-03-27 20:42:22
賈康重磅發聲!3月25日北京傳來大消息,房地產真的止跌回暖了?

賈康重磅發聲!3月25日北京傳來大消息,房地產真的止跌回暖了?

林子說事
2026-03-28 04:43:11
國產筆記本CPU偷梁換柱翻車!官方終于回應:生產失誤、全額退款

國產筆記本CPU偷梁換柱翻車!官方終于回應:生產失誤、全額退款

快科技
2026-03-25 10:14:04
大批美國游客涌入中國,回國后坦言:客觀對比,中國比美國強多了

大批美國游客涌入中國,回國后坦言:客觀對比,中國比美國強多了

燦若銀爛
2026-02-27 20:11:39
這種成熟女人的打扮,比起網紅小姐姐的穿搭,顯得更有韻味

這種成熟女人的打扮,比起網紅小姐姐的穿搭,顯得更有韻味

美女穿搭分享
2026-03-20 19:00:03
年終盤點:速騰L連續十年細分市場銷冠,品牌護城河深不可測?

年終盤點:速騰L連續十年細分市場銷冠,品牌護城河深不可測?

汽車網評
2025-12-29 15:42:26
高齡老人不用吃他汀?權威研究:70歲以上高危者吃了更長壽

高齡老人不用吃他汀?權威研究:70歲以上高危者吃了更長壽

醫學科普匯
2026-02-26 21:15:04
別再用現金行賄受賄了!大數據一查就現形,全程 “裸奔” 藏不住

別再用現金行賄受賄了!大數據一查就現形,全程 “裸奔” 藏不住

復轉這些年
2026-02-09 23:45:54
賴清德還在竊喜?柯文哲判17年、蔡正元入獄,國防部當場撂下硬話

賴清德還在竊喜?柯文哲判17年、蔡正元入獄,國防部當場撂下硬話

奇思妙想生活家
2026-03-28 03:55:42
張雪峰6年前已離婚,獨女張姩菡只能分16.5%遺產,現任妻子占大頭

張雪峰6年前已離婚,獨女張姩菡只能分16.5%遺產,現任妻子占大頭

楓紅染山徑
2026-03-25 16:56:22
女子被觸摸隱私部位后續!衣服全被脫光,商家只開除,拒絕賠償

女子被觸摸隱私部位后續!衣服全被脫光,商家只開除,拒絕賠償

潮鹿逐夢
2026-03-18 10:26:41
秘密曝光了!歐爾班政府的飛機從俄羅斯運回大量的資金和貴重物品

秘密曝光了!歐爾班政府的飛機從俄羅斯運回大量的資金和貴重物品

藍色海邊
2026-03-28 04:02:59
朱芳雨和杜鋒產生了意見分歧!

朱芳雨和杜鋒產生了意見分歧!

體育哲人
2026-03-27 18:33:05
2026-03-28 05:47:00
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12619文章數 142595關注度
往期回顧 全部

科技要聞

楊植麟張鵬夏立雪羅福莉,聊龍蝦、聊漲價

頭條要聞

伊朗:正制定戰爭結束條件 美以將被迫接受現實

頭條要聞

伊朗:正制定戰爭結束條件 美以將被迫接受現實

體育要聞

邵佳一:足球就像一場馬拉松

娛樂要聞

范瑋琪加盟,官宣《浪姐7》遭全網抵制

財經要聞

我在小吃培訓機構學習“科技與狠活”

汽車要聞

與眾08,金標大眾不能輸的一戰

態度原創

數碼
游戲
房產
旅游
軍事航空

數碼要聞

洛斐QQ音樂聯名外設泄露:極地苔原色,瞬間激活432Hz自然聲

離譜!PS5全系暴漲 GTA6還沒出主機先買不起了

房產要聞

6.8萬方!天河員村再征地,金融城西區開發全面提速

旅游要聞

日照嵐山“打飛的”賞春成新時尚

軍事要聞

伊朗:已組織超100萬人為地面戰斗做準備

無障礙瀏覽 進入關懷版