MSRA清北推出強化預訓練!取代傳統(tǒng)自監(jiān)督,14B模型媲美32B
“預測下一個token”——這個支撐LLM的核心訓練機制,正在被強化學習顛覆。
微軟亞洲研究院(MSRA)聯(lián)合清華大學、北京大學提出全新預訓練范式RPT(強化預訓練),首次將強化學習深度融入預訓練階段,讓模型在預測每個token前都能先“動腦推理”,并根據(jù)推理正確性獲得獎勵。

傳統(tǒng)預訓練依賴海量文本進行自監(jiān)督學習,模型通過簡單預測下一個token建立語言能力,作者將之比喻為一塊蛋糕胚,而RL只是作為上面點綴的一顆櫻桃。
現(xiàn)在RPT要做的就是用櫻桃直接做蛋糕,即將這一過程重構為推理任務,促進模型更深層次理解和提升下一個token的預測準確度。

那這塊櫻桃蛋糕到底怎么做?詳細烘焙流程我們接著往下看。
將強化學習引入預訓練
傳統(tǒng)的預訓練方法采用自監(jiān)督的下一個token預測任務,而RL通常承擔微調LLM的功能,使其與人類偏好對齊或者增強復雜推理。
然而基于人類反饋的強化學習(RLHF)過度依賴昂貴數(shù)據(jù),且模型容易受到獎勵破解;可驗證獎勵的強化學習(RLVR)也會受到數(shù)據(jù)稀缺的限制,只能應用于特定領域的微調。
為了讓強化學習更好地作用于LLM,團隊提出的全新范式強化預訓練RPT,激勵使用RL進行有效的Next-Token推理任務,將預訓練語料庫重構為推理問題集,推動預訓練從學習表面的token相關性轉為理解深層含義。
模型首先需要對多個token生成一個思維鏈推理序列,涉及多種推理模式(如頭腦風暴、自我批評和自我糾正),然后再為下一個token生成預測。

具體來說,RPT就是通過讓LLM同策略(on-policy)執(zhí)行,以生成多條不同的思維軌跡,每條軌跡包含中間推理步驟和對下一個token的最終預測。
引入前綴匹配獎勵,驗證預測的正確性。如果預測與真實token匹配,則分配正獎勵1,反之為0。該獎勵信號將用于更新LLM,以鼓勵生成能準確延續(xù)上下文的軌跡。

團隊使用包含4428個競賽數(shù)學問題及答案的OmniMATH數(shù)據(jù)集,并通過計算下一token的熵和設定閾值,進行數(shù)據(jù)過濾,只保留更難預測的token參與訓練。
另外采用Deepseek-R1-Distill-Qwen-14B作為基礎模型,使用GRPO算法和8K的訓練長度,批大小為256個問題,每個問題采樣8個響應。
更深層次的推理
實驗表明,與R1-Distill-Queen-14B相比,RPT-14B在三種難度(簡單、中等、困難)上均實現(xiàn)了更高的下一個token預測準確率,優(yōu)于標準下一token預測基線和使用推理的預測基線。

在性能上,也可與更大的模型R1-Distill-Queen-32B相媲美,說明RPT能有效捕捉token生成背后的復雜推理信號,并在提升LLM的語言建模能力方面擁有巨大潛力。

RPT在跨難度的訓練計算方面,也表現(xiàn)出清晰的冪律縮放 (Power-law Scaling),預測準確性隨著計算的增加而不斷提高,并且與理論曲線緊密擬合。

與傳統(tǒng)的使用下一個token預測相比,在具有可驗證答案的問題(即Skywork-OR1)上,使用RL微調RPT模型顯示出更強的推理能力。
在數(shù)據(jù)有限的情況下,可以快速將從下一token推理中學習到的強化推理模式遷移至最終任務。

另外模型在SuperGPQA和MMLU-Pro基準測試上的零樣本評估表明,RPT-14B不僅優(yōu)于R1-Distill-Queen-14B,還在推理模式中顯著超過了R1-Distill-Qwen-32B。

最后團隊還對推理軌跡進行分析,發(fā)現(xiàn)與顯式問題解決模型相比,RPT-14B采用了更多的假設生成、替代方案的考慮以及對結構線索甚至顆粒度token級細節(jié)的反思。
既包含高級語義理解,又包含低級文本特征,說明RPT在訓練過程中會培養(yǎng)更深層次的推理習慣。

One More Thing
這塊著名的“蛋糕論”最早出自圖靈獎得主Yann LeCun在2016年的演講。
如果智能是一塊蛋糕,那么大部分蛋糕都是無監(jiān)督學習,蛋糕上的裱花是監(jiān)督學習,而蛋糕頂部的櫻桃則是強化學習。

而現(xiàn)在試圖用強化學習碾碎這塊蛋糕的,還有OpenAI。

在上個月紅杉組織的AI Ascent活動中,OpenAI科學家Dan Roberts就提及了他們在將RL置于模型預訓練過程中的轉變。
在GPT-4o中全是傳統(tǒng)預訓練計算,在o1中引入了一些強化學習運算并且取得了不錯的效果,在o3中則引入更多,他們預計在未來的某一代模型中,將會完全由RL計算主導。

有理由相信,未來RL或許將在LLM預訓練過程中掀起更大的風暴,且讓我們拭目以待。
論文鏈接:https://arxiv.org/abs/2506.08007



































