精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

AI自我糾錯(cuò),Diffusion超越自回歸!質(zhì)量提升55%,已達(dá)理論證據(jù)下界

人工智能 新聞
Diffusion模型,學(xué)會(huì)了自我糾正!無需強(qiáng)化學(xué)習(xí)等后訓(xùn)練,擴(kuò)散在語言建模中實(shí)現(xiàn)了自我糾錯(cuò),達(dá)到了計(jì)算效率匹配的最優(yōu)性能,找到了證據(jù)下界(ELBO)的理論上的閉式解,在實(shí)驗(yàn)中將樣本質(zhì)量最高提升了55%。

如果大語言模型(LLMs)能夠發(fā)現(xiàn)并糾正自己的錯(cuò)誤,那豈不是很好?

而且,如果能夠直接從預(yù)訓(xùn)練中實(shí)現(xiàn)這一點(diǎn),而無需任何監(jiān)督微調(diào)(SFT)或強(qiáng)化學(xué)習(xí)(RL),那會(huì)怎樣呢?

最新提出的離散擴(kuò)散模型,稱為GIDD,它能夠做到這一點(diǎn)。

在語言建模中,GIDD實(shí)現(xiàn)了計(jì)算效率匹配的最優(yōu)性能!

請注意:不是基于自回歸的LLM,是擴(kuò)散語言模型。

圖片

無條件生成與自我糾錯(cuò)算法的比較

來自蘇黎世聯(lián)邦理工學(xué)院ETH Zurich等組織的研究團(tuán)隊(duì),推廣了掩碼擴(kuò)散(masked diffusion),并推導(dǎo)出一系列廣義插值離散擴(kuò)散模型(general interpolating discrete diffusion,GIDD)的理論基礎(chǔ)。

GIDD不僅更靈活,而且在理論上得到了證據(jù)下界(evidence lower bound,ELBO)的閉式解。

實(shí)驗(yàn)結(jié)果表明:GIDD樣本質(zhì)量(生成困惑度,PPL)最高可提升55%。

GIDD核心主要有3大特征:

1、推廣性強(qiáng):GIDD適用于多種擴(kuò)散過程,不局限于掩碼擴(kuò)散。 

2、混合擴(kuò)散訓(xùn)練:訓(xùn)練了一個(gè)結(jié)合掩碼(masking)和均勻噪聲(uniform noise)的混合擴(kuò)散模型。 

3、雙重能力:不僅可以填補(bǔ)空缺(填充被掩蓋的token),還可以評(píng)估已填充token的正確性,并在必要時(shí)用更合理的 token替換錯(cuò)誤的部分。

圖片

論文鏈接:https://www.arxiv.org/abs/2503.04482

項(xiàng)目地址:https://github.com/dvruette/gidd/

預(yù)測下一個(gè)token,雖然成果顯著,但存在固有的局限性,例如無法修改已經(jīng)生成的token。

這促使研究者探索替代方法,如離散擴(kuò)散

然而,由于簡單性和有效性,掩碼擴(kuò)散(masked diffusion)成為流行選擇,但重新引入了無法修改token的這種局限性。

基于對擴(kuò)散模型添加噪聲的重要性認(rèn)識(shí),新研究旨在探索離散擴(kuò)散模型的設(shè)計(jì)空間,并嘗試不同的擴(kuò)散過程。

廣義插值離散擴(kuò)散(GIDD)是新的離散擴(kuò)散方法,將掩碼擴(kuò)散推廣到任意插值噪聲過程。

在擴(kuò)散過程中,GIDD可以在任何時(shí)刻靈活地選擇添加不種類型的噪聲。

圖片

有趣的是,任何邊際分布符合上述方程的擴(kuò)散過程,都可以推導(dǎo)出證據(jù)下界(ELBO)。

想要掩碼擴(kuò)散?沒問題!

只需將 πt設(shè)為 one_hot([MASK]),然后在GIDD的ELBO上進(jìn)行訓(xùn)練即可。

不幸的是,掩碼擴(kuò)散無法進(jìn)行自我糾正。就像自回歸模型一樣,一旦token被確定,就無法再更改。

因此,如果模型在某個(gè)步驟出錯(cuò),就沒有辦法進(jìn)行修正。

為了解決這個(gè)問題,從BERT中汲取了靈感:如果除了掩碼token外,隨機(jī)用其他token替換一部分token,會(huì)怎么樣?

這樣,模型不僅需要學(xué)會(huì)「填空」,還要學(xué)會(huì)識(shí)別并修正錯(cuò)誤的token

由于GIDD的ELBO具有高度的靈活性,只需選擇合適的 πt來捕捉所需的動(dòng)態(tài)特性。

設(shè)定 πt使得均勻噪聲的比例隨著噪聲水平的變化而上升或下降,并在 t=0.5時(shí)達(dá)到峰值。

圖片

真地有效嗎?

第一次實(shí)驗(yàn)結(jié)果有些讓人失望,因?yàn)槭褂镁鶆蛟肼曈?xùn)練的模型,其困惑度比僅使用掩碼的模型要差。

但考慮到這些模型除了需要填補(bǔ)缺失的token外,還要修正錯(cuò)誤的token,這并不令人感到意外。

圖片

那樣本質(zhì)量又如何呢?

下圖發(fā)現(xiàn)發(fā)現(xiàn)生成性PPL(使用Gemma-2-9b測量)有了顯著的改進(jìn),特別是對于使用均勻噪聲訓(xùn)練的模型來說更是如此,尤其是在推理預(yù)算緊張的情況下!

圖片

這是否意味著模型在糾正自己的錯(cuò)誤呢?

為了弄清楚這一點(diǎn),提出了一種自我糾正算法,通過一次修復(fù)一個(gè)token(使用模型)來改進(jìn)已經(jīng)生成的樣本,直到收斂到一個(gè)穩(wěn)定點(diǎn)。

這樣可以不斷提高樣本質(zhì)量(以生成PPL衡量),甚至超越僅僅通過增加去噪預(yù)算所能達(dá)到的水平,提供了一種簡單的方法來擴(kuò)展測試時(shí)計(jì)算資源!

值得注意的是,僅在去掩碼任務(wù)上訓(xùn)練的模型不具備這種能力。

圖片

在理論和實(shí)踐上,新研究的主要貢獻(xiàn)包括以下兩方面:

  • 理論方面:將掩碼擴(kuò)散(masked diffusion)框架擴(kuò)展為「廣義插值離散擴(kuò)散」過程。GIDD能更靈活地選擇噪聲添加方式,同時(shí)仍然能夠得到累積狀態(tài)轉(zhuǎn)移和擴(kuò)散證據(jù)下界(ELBO)的閉式解。
  • 實(shí)踐方面:基于理論分析,在實(shí)踐中取得了改進(jìn)。在計(jì)算資源相當(dāng)?shù)那闆r下,優(yōu)化訓(xùn)練目標(biāo)達(dá)到了當(dāng)前最優(yōu)的性能。同時(shí),通過引入均勻噪聲,提高了樣本質(zhì)量,并實(shí)現(xiàn)了自校正能力(見圖1和表1)。

圖片

圖1.在訓(xùn)練過程中,使用GIDD結(jié)合掩碼和均勻噪聲,可以讓擴(kuò)散模型學(xué)會(huì)識(shí)別并糾正自身錯(cuò)誤。

圖片

表1.使用20%均勻噪聲訓(xùn)練的GIDD+BASE模型進(jìn)行自我糾正的例子(綠色替換紅色)。

GIDD模型能夠在未明確訓(xùn)練的情況下糾正語法錯(cuò)誤、改進(jìn)詞匯選擇,甚至提升事實(shí)準(zhǔn)確性。

自回歸模型缺陷

從觀察中提取世界的結(jié)構(gòu)是智能的基本機(jī)制。

生物體可以自然而然地做到這一點(diǎn),而機(jī)器在這方面的能力直到最近才取得重大突破。

近年來,深度生成模型取得了顯著提升。

顧名思義,生成模型生成新的、逼真的樣本,其中「逼真」通常指的是樣本在某個(gè)參考分布下具有較高的概率。

對于某些數(shù)據(jù)分布(例如自然圖像或自然語言),單個(gè)樣本所包含的信息量可能非常龐大。

為了降低生成模型的計(jì)算負(fù)擔(dān),一種常見策略是將生成單個(gè)樣本的任務(wù)拆分為多個(gè)推理步驟。

每個(gè)步驟本身相對簡單,但當(dāng)所有步驟組合在一起時(shí),能夠恢復(fù)完整的分布。

在自然語言處理領(lǐng)域,最典型的方法是自回歸建模(autoregressive modeling)。

圖片

自回歸語言建模經(jīng)典之作:https://www.jmlr.org/papers/v3/bengio03a.html

在此類方法中,生成一個(gè)句子(或序列)的過程被拆解為逐個(gè)生成單詞(或token),并使用已生成的單詞作為上下文,來預(yù)測下一個(gè)單詞。

自回歸模型存在一些天生的缺陷:(1)計(jì)算成本高;(2)長程依賴與連貫性(long-term dependencies and coherence)問題

為了解決這些問題,研究者們付出了大量努力。

例如,通過強(qiáng)化學(xué)習(xí)(RL)進(jìn)行后訓(xùn)練,讓模型在多個(gè)自回歸步驟中學(xué)會(huì)序列推理,從而提升連貫性。

去噪擴(kuò)散模型,提出了不同的生成任務(wù)分解方式,可以解決這兩個(gè)限制。

擴(kuò)散模型的調(diào)用次數(shù)與樣本大小無關(guān)。

在圖像生成上,擴(kuò)展模型取得了成功,其中添加的高斯噪聲。

圖片

使用Stable Diffusion Ultra生成建的圖像,由Stable Diffusion 3.5提供支持

然而,比如自然語言上,擴(kuò)散方法并不如在圖像上如意。

廣義插值擴(kuò)散(GIDD)

掩碼擴(kuò)散(masked diffusion)技術(shù)雖廣泛應(yīng)用,但仍存在根本性局限。

主要問題源于其底層Markov鏈設(shè)計(jì):一旦token被填充,便無法修改,可能導(dǎo)致錯(cuò)誤累積或token不兼容,且缺乏修正機(jī)制,直接影響結(jié)果質(zhì)量。

另一個(gè)局限是,僅掩碼token貢獻(xiàn)損失信號(hào),未掩碼token保持無噪聲狀態(tài),減少了有效批大小。

一種有效解決方案是借鑒BERT,將掩碼機(jī)制與均勻噪聲結(jié)合。這種方法不僅能解決上述問題,還帶來額外優(yōu)勢:

  1. 采樣階段,模型不僅能填充空白,還能修改已解碼token,提升靈活性和準(zhǔn)確性。
  2. 訓(xùn)練任務(wù)更全面復(fù)雜,因?yàn)槊總€(gè)token都可能受噪聲影響,模型需具備糾錯(cuò)能力,從而提高整體性能。

通過這種方式,模型學(xué)會(huì)識(shí)別「正確」與「錯(cuò)誤」token后,可能發(fā)展出自我校正\自我糾錯(cuò)能力。

然而,在特定理想擴(kuò)散路徑上訓(xùn)練擴(kuò)散模型時(shí),仍面臨技術(shù)挑戰(zhàn),需進(jìn)一步研究。

標(biāo)準(zhǔn)的訓(xùn)練目標(biāo)——擴(kuò)散證據(jù)下界(diffusion ELBO)—— 需要已知Markov狀態(tài)轉(zhuǎn)移才能推導(dǎo)出來。

但構(gòu)造具有特定性質(zhì)的Markov鏈通常是復(fù)雜的逆問題,并不容易直接求解。

研究人員將插值擴(kuò)散(interpolating diffusion)擴(kuò)展到任意(隨時(shí)間變化的)插值策略,避免了單獨(dú)求解特定的掩碼與均勻噪聲組合的逆問題,同時(shí)提升了模型設(shè)計(jì)的靈活性,

具體來說,提出了廣義插值離散擴(kuò)散(GIDD),是一類具有邊際前向轉(zhuǎn)移(marginal forward transitions)的擴(kuò)散模型,其形式如下:

圖片

其中,π_t是一個(gè)隨時(shí)間平滑變化的概率分布。

值得注意的是,當(dāng)π_t=m時(shí),GIDD便退化為掩碼擴(kuò)散的特例。

可以證明,在適當(dāng)選擇αt和πt的情況下,確實(shí)存在一個(gè)Markov鏈可以產(chǎn)生這些邊際分布,并推導(dǎo)其條件轉(zhuǎn)移關(guān)系以及訓(xùn)練所需的ELBO公式。

前向過程

GIDD旨在提供最大程度的靈活性,使得在任意時(shí)間點(diǎn)都可以對數(shù)據(jù)添加不同類型的噪聲。

其核心由兩個(gè)部分組成:

1)混合率αt:定義了隨時(shí)間變化的信噪比(signal-to-noise ratio)。

2)混合分布πt:決定了數(shù)據(jù)在某一時(shí)刻被噪聲化后的目標(biāo)分布。

研究人員將這兩個(gè)函數(shù)的組合稱為擴(kuò)散過程的「混合調(diào)度」(mixing schedule)。

定義 3.1(混合速率):設(shè)(累積)混合速率αt和βt(其中βt=1?αt)為時(shí)間可微且遞減的函數(shù)αt:[0,1]→[0,1],滿足初始條件α0=1(表示無混合狀態(tài))和最終條件α1=0(表示完全混合狀態(tài))。

這一設(shè)定決定了信噪比(SNR),即 SNR=αtβt。隨著t的增加,αt減小,表明信號(hào)成分逐漸減少,而噪聲成分逐漸增加。

定義 3.2(混合分布):設(shè)混合分布πt是一個(gè)依賴于時(shí)間的概率向量,即時(shí)間可微函數(shù) πt:[0,1]→Δ∣V∣?1,這里 Δ∣V∣?1表示 ∣V∣維單純形。

混合分布πt描述了在任意給定時(shí)間點(diǎn) tt添加到數(shù)據(jù)中的噪聲類型。因此,π1特別地代表了擴(kuò)散過程的先驗(yàn)分布,它刻畫了在時(shí)間 t=1時(shí)的數(shù)據(jù)噪聲特性。

在此過程中,研究人員已經(jīng)成功構(gòu)建了一個(gè)馬爾可夫鏈,其邊緣分布按邊際前向轉(zhuǎn)移公式所述。

為了后續(xù)推導(dǎo)ELBO(證據(jù)下界),還需要定義相應(yīng)的連續(xù)時(shí)間馬爾可夫鏈(CTMC)的轉(zhuǎn)移速率,具體如下。

圖片

最終,得到了GIDD的CTMC前向速率。

圖片

反向過程

擴(kuò)散模型的標(biāo)準(zhǔn)分布pθ(zs∣zt)由以下公式給出:

圖片

其中,qt(zt∣xθ)的簡寫形式為:

圖片

這里,xθ(Zt,t)是一個(gè)神經(jīng)網(wǎng)絡(luò),用于預(yù)測在噪聲序列Zt條件下的x的分布。

此外,ELBO(證據(jù)下界)的推導(dǎo)涉及連續(xù)時(shí)間馬爾可夫鏈(CTMC)的反向速率圖片

圖片

GIDD的證據(jù)下界

為了訓(xùn)練GIDD模型,需要一種可微分的方法來估計(jì)其似然函數(shù)(likelihood)。

證據(jù)下界(ELBO)正是用于此目的:通過最大化ELBO,實(shí)際上也是在最大化模型的(最壞情況下的)似然函數(shù)。

在計(jì)算ELBO時(shí),需要用到GIDD的前向速率(forward rate)和反向速率(backward rate),這些已在前文推導(dǎo)完成。

然后,基于Campbell等人提出的ELBO形式進(jìn)行一定修改,并將GIDD的前向速率和反向速率代入,經(jīng)過化簡后得到了定理3.7。

圖片

深入分析GIDD的ELBO(證據(jù)下界),可以發(fā)現(xiàn)它實(shí)際上是在同時(shí)優(yōu)化兩個(gè)任務(wù):

1、匹配模型與前向分布的邊際概率

2、最小化rθ(zt,x)以匹配邊際概率

有趣的是,這兩個(gè)優(yōu)化任務(wù)具有相同的全局最優(yōu)解。

這意味著,如果模型能夠完美優(yōu)化ELBO,它就能同時(shí)滿足這兩個(gè)目標(biāo)。這一特性對于理解ELBO的全局最小值及其優(yōu)化過程具有重要意義。

采樣

給定一個(gè)采樣時(shí)間表0≈t0<t1<?<tT≈1和神經(jīng)網(wǎng)絡(luò)xθ,在選定的時(shí)間網(wǎng)格上對時(shí)間進(jìn)行離散化,并采用祖先采樣(ancestral sampling)方法。

具體來說,從一個(gè)全掩碼token的序列開始,即所有ztT都設(shè)為掩碼tokenm。

然后,按照以下方式迭代采樣,其中i=T,…,1:

圖片

自校正步驟(Self-Correction Step)

此外,提出了一種不動(dòng)點(diǎn)迭代方法,通過重新采樣部分token來改進(jìn)生成結(jié)果,使其更符合模型的判斷。

具體而言,將完全去噪后的樣本Z_{t_0}輸入模型,并以溫度參數(shù)τ進(jìn)行采樣。

然后,在所有與Zt0不同的采樣token中,

選擇模型置信度最高的一個(gè)token并確認(rèn)它。

這個(gè)過程會(huì)持續(xù)進(jìn)行,直到結(jié)果收斂(詳細(xì)內(nèi)容見附錄C)。

自校正算法是一種不動(dòng)點(diǎn)迭代方法,可以應(yīng)用于任何已經(jīng)(部分)去噪的生成樣本。

其核心思想是查詢模型以識(shí)別模型認(rèn)為錯(cuò)誤并應(yīng)該替換的token,并且一次只替換一個(gè)token以避免重新引入沖突token。

具體的偽代碼實(shí)現(xiàn)參見算法1。

圖片

在實(shí)際操作中,發(fā)現(xiàn)收斂往往表現(xiàn)為在兩個(gè)或多個(gè)同樣優(yōu)良狀態(tài)(就自準(zhǔn)確性而言)之間的振蕩,因此額外基于自準(zhǔn)確性實(shí)現(xiàn)了提前停止機(jī)制。

實(shí)驗(yàn)表明,提前停止的耐心值設(shè)為32時(shí)效果良好。

混合策略(Mixing Schedule)

雖然GIDD可以用于掩碼擴(kuò)散,但最初提出這一廣義框架的動(dòng)機(jī)是探索掩碼與均勻噪聲的結(jié)合。

為此,研究團(tuán)隊(duì)設(shè)計(jì)了一種混合策略(mixing schedule),在保持掩碼先驗(yàn)分布的同時(shí),允許在不同階段引入可調(diào)節(jié)比例的均勻噪聲。

下文中用p_u表示均勻噪聲的比例。

為了保證可解釋性,設(shè)定在數(shù)據(jù)和噪聲的中點(diǎn)(t=1/2)時(shí),均勻噪聲token的期望比例達(dá)到最大值p_u。

基于這一目標(biāo),定義了混合速率(mixing rate)和混合分布(mixing distribution)(定義3.1和3.2)。

圖片

其中:圖片N表示詞匯表的大小,B是一個(gè)常數(shù),選取它的值可以保證均勻噪聲的比例達(dá)到目標(biāo)水平。

由此,得到邊際前向分布(marginal forward distribution):

圖片

為了在t=1/2處使均勻噪聲比例達(dá)到p_u,需要設(shè)定:圖片

GIDD的ELBO計(jì)算涉及額外的常數(shù)和因子,需要推導(dǎo)相應(yīng)的時(shí)間導(dǎo)數(shù)。

值得注意的是,當(dāng)p_u=0.0時(shí),GIDD退化回掩碼擴(kuò)散(masked diffusion)。

在的實(shí)驗(yàn)中,設(shè)定γ=1,但本節(jié)引入的超參數(shù)仍有許多其他可能的選擇。

圖片

訓(xùn)練目標(biāo)

在開始實(shí)驗(yàn)之前,需要解決最后一個(gè)關(guān)鍵問題,這一改進(jìn)將帶來顯著的性能提升。

仔細(xì)分析擴(kuò)散證據(jù)下界(ELBO)的權(quán)重wt(zt,x)后,發(fā)現(xiàn)當(dāng)t→0或t→1時(shí),權(quán)重的變化非常極端。

考慮以下三種可能情況:(1)z_t=x(未被噪聲污染的token);(2)z_t=m(掩碼token);(3)zt?{x,m}(其他隨機(jī)噪聲token)

繪制w_t(z_t,x)隨時(shí)間的變化曲線后(見圖2),可以觀察到在極低或極高噪聲水平下,權(quán)重呈指數(shù)級(jí)增長。

這種現(xiàn)象可能會(huì)帶來問題:

  • 當(dāng)噪聲較低時(shí),去噪任務(wù)變得過于簡單,模型幾乎不需要學(xué)習(xí)。
  • 當(dāng)噪聲較高時(shí),去噪任務(wù)變得幾乎不可能,模型也無法從中獲得有效的訓(xùn)練信號(hào)。
  • 這兩種極端樣本的權(quán)重過高,可能會(huì)淹沒批次中的其他訓(xùn)練樣本,從而影響整體訓(xùn)練效果。

圖片

解決方案:權(quán)重裁剪(Weight Clamping)

為了解決這個(gè)問題,提出了兩種權(quán)重調(diào)整方案,以減少極端樣本的影響,并強(qiáng)調(diào)中等噪聲水平的樣本,因?yàn)檫@些樣本提供了最有價(jià)值的訓(xùn)練信號(hào)。

最簡單直接的方法是對權(quán)重設(shè)置一個(gè)最大值w_{max},即:

圖片

根據(jù)初步實(shí)驗(yàn),發(fā)現(xiàn)設(shè)定 wmax?=1效果最佳,因此這一設(shè)定將在后續(xù)實(shí)驗(yàn)中被采用。

圖片

表3:GIDD(p_u = 0.0)和MDM的困惑度(PPL)非常接近,這與它們的理論等價(jià)性一致。

顯著的效果提升來自于選擇正確的權(quán)重函數(shù),尤其是在p_u > 0的情況下。

最終的最佳設(shè)置包括動(dòng)態(tài)損失權(quán)重和權(quán)重衰減,該設(shè)置也被稱為 GIDD+。

上述權(quán)重裁剪(clamping)方法主要影響掩碼token和均勻噪聲token的權(quán)重。

然而,一個(gè)更系統(tǒng)的方法是:在保持最大損失權(quán)重恒定的同時(shí),仍然保留掩碼token、均勻噪聲token和無噪聲token之間的相對權(quán)重關(guān)系。

動(dòng)態(tài)權(quán)重調(diào)整(Dynamic Weighting)

提出了一種動(dòng)態(tài)加權(quán)函數(shù)(dynamic weighting function),其定義如下:

圖片

其中,圖片表示對數(shù)信噪比(log-SNR)。

該方法的相對權(quán)重關(guān)系(掩碼token/均勻噪聲token/無噪聲token=2/1/Be^{-λ_t^2})是通過實(shí)驗(yàn)經(jīng)驗(yàn)確定的。

需要注意的是,這種ELBO重加權(quán)方法等效于從一個(gè)非均勻分布中采樣t。

自我糾正(Self-Correction)

目前為止,觀察到僅使用掩碼訓(xùn)練的模型往往優(yōu)于結(jié)合均勻噪聲的模型,但尚未討論引入均勻噪聲的核心動(dòng)機(jī):讓模型學(xué)會(huì)區(qū)分「正確」與「錯(cuò)誤」token,希望它能夠具備自我糾正能力

為了評(píng)估生成樣本的質(zhì)量,采用生成困惑度(generative perplexity,PPL)這一指標(biāo)。

具體而言,PPL計(jì)算的是生成樣本在更強(qiáng)大模型下的似然值,在的實(shí)驗(yàn)中,使用Gemma 2 9B作為評(píng)估模型。

更高的似然值通常被認(rèn)為對應(yīng)于更高質(zhì)量的樣本。

雖然PPL作為指標(biāo)存在諸多局限性,但它在文獻(xiàn)中被廣泛采用,并且在相對比較不同模型的質(zhì)量時(shí)依然具有參考價(jià)值。

除了PPL,還評(píng)估了模型的自我準(zhǔn)確率(Self-Accuracy)。

即模型在生成過程中,對其認(rèn)為「正確」的token(即在整個(gè)序列中賦予某個(gè)token最高概率)所占的比例。

值得注意的是,在進(jìn)行自我糾正之前,訓(xùn)練時(shí)加入均勻噪聲的模型樣本質(zhì)量已經(jīng)更高。

尤其是在低計(jì)算量推理(low inference-compute)設(shè)置下,相較于僅使用掩碼的模型,其生成困惑度(generative PPL)提升尤為顯著。

例如,在32步推理時(shí):

  • GIDD+(SMALL;p_u=0.1)的PPL為387;
  • 僅掩碼模型(p_u=0.0)的PPL為904;
  • MDM(masked diffusion model)的PPL更高,達(dá)到1302。

這表明,訓(xùn)練時(shí)加入均勻噪聲可以穩(wěn)定生成過程,特別是在模型將自身生成的輸出作為輸入時(shí),使得樣本質(zhì)量更高——即使其驗(yàn)證困惑度(validation PPL)略有下降。

這一發(fā)現(xiàn)引發(fā)了一個(gè)重要問題:自我糾正的效果是否只是因?yàn)轭~外的去噪迭代次數(shù)?

換句話說,模型在去噪過程中可能已經(jīng)在執(zhí)行一定程度的自我糾正,因此自我糾正步驟帶來的提升,是否僅僅是因?yàn)轭~外的計(jì)算次數(shù)?

從實(shí)驗(yàn)來看,雖然增加去噪步驟確實(shí)會(huì)單調(diào)提升樣本質(zhì)量,但這種提升最終會(huì)趨于飽和(對于BASE模型,PPL約停留在200)。

然而,當(dāng)引入自我糾正機(jī)制后,PPL可以進(jìn)一步降低到100以下,這表明自我糾正帶來的改進(jìn)并非僅僅是更多去噪迭代的結(jié)果,而是一種額外的、非平凡(non-trivial)的提升。

圖片

圖3|從左到右(a)不同溫度下token數(shù)變化;(b)token變化數(shù)與PPL的關(guān)系;(c)自我準(zhǔn)確性與生成困惑度之間的相關(guān)性.

具體結(jié)果如下:

(a) 使用 GIDD+ (BASE) 模型進(jìn)行自我糾正時(shí),可以重新采樣最多10%的token,這一過程與均勻噪聲水平無關(guān)。研究發(fā)現(xiàn),溫度參數(shù)τ取值在 [0.1, 0.5] 之間時(shí)效果最佳。

(b) 對于在均勻噪聲上訓(xùn)練的模型來說,采樣的token數(shù)量越多,效果越好。然而,僅使用掩碼(mask-only)的模型即使重新采樣了同樣數(shù)量的token,也無法提升質(zhì)量。

(c) 通過分析自我準(zhǔn)確性(self-accuracy)與生成困惑度(generative PPL)之間的相關(guān)性,發(fā)現(xiàn)混合模型在評(píng)估自身生成樣本的質(zhì)量方面明顯更具優(yōu)勢。

下游人物性能

在一系列基準(zhǔn)測試中評(píng)估了模型的語言理解能力。基于混合噪聲設(shè)置p_u > 0的更高難度,預(yù)計(jì)這些模型不會(huì)超過僅使用掩碼噪聲p_u = 0的情況,實(shí)驗(yàn)結(jié)果也證實(shí)了這一點(diǎn)。

因此,研究人員將重點(diǎn)放在比較最佳的 SMALL GIDD+ 模型與MDM以及自回歸基線模型(即 GPT2(和重新訓(xùn)練的 Llama上。

作為參考,還納入了兩個(gè) 1.1B 參數(shù)模型,一個(gè)是自回歸模型,另一個(gè)是掩碼擴(kuò)散模型。

基準(zhǔn)測試包括ARC-e和ARC-c、BoolQ、Hellaswag、PIQA、OpenBookQA以及WinoGrande。

實(shí)驗(yàn)發(fā)現(xiàn),平均準(zhǔn)確率與驗(yàn)證困惑度(PPL)通常有很好的相關(guān)性(見表4)。

在擴(kuò)散模型中,表現(xiàn)最好的是僅訓(xùn)練了131B token的GIDD+(p_u=0.0),超過了訓(xùn)練時(shí)間兩倍的模型。

這可能是由于模型在訓(xùn)練數(shù)據(jù)中的虛假模式上過擬合,雖然驗(yàn)證損失仍然下降,但并未轉(zhuǎn)化為下游任務(wù)的性能提升。

值得注意的是,最佳擴(kuò)散模型GIDD+的表現(xiàn)優(yōu)于自回歸模型 GPT2,盡管訓(xùn)練數(shù)據(jù)的差異使得公平比較有些困難。實(shí)際上,最佳自回歸模型 Llama(重新訓(xùn)練版本) 仍然在總體上表現(xiàn)最佳,但平均差距不到一個(gè)百分點(diǎn)。

圖片

表4:不同模型的零樣本(Zero-shot)基準(zhǔn)準(zhǔn)確率。在小型模型和擴(kuò)散模型中分別用粗體和下劃線_標(biāo)出了最佳分?jǐn)?shù)。

對于使用均勻噪聲訓(xùn)練的 GIDD 模型,其趨勢與驗(yàn)證困惑度一致,更多的均勻噪聲通常會(huì)降低準(zhǔn)確率。

下表5中列出了三種規(guī)模(TINY、SMALL、BASE)和所有均勻噪聲水 0.0, 0.1, 0.2的GIDD+模型的基準(zhǔn)測試準(zhǔn)確率。

無論均勻噪聲水平如何,模型的性能都隨著規(guī)模的增加而持續(xù)提升。然而,使用均勻噪聲訓(xùn)練的模型,在性能上略微但持續(xù)落后于僅使用掩碼噪聲的模型。

圖片

然而,隨著模型規(guī)模的增加,性能持續(xù)提升,初步跡象表明,隨著規(guī)模的擴(kuò)大,差距可能會(huì)縮小。

直觀地說,均勻噪聲讓訓(xùn)練任務(wù)變得更難:模型不能再理所當(dāng)然地認(rèn)為每個(gè)未掩碼的token都是正確的,而是必須考慮上下文中的每個(gè)token,并在必要時(shí)將其替換為正確的token。

這種直觀的解釋表明,觀察到的性能差異可能是由于模型容量不足,在這種情況下,預(yù)計(jì)更大的模型受均勻噪聲的影響會(huì)更小。

為了驗(yàn)證這一假設(shè),在保持訓(xùn)練時(shí)長不變的情況下擴(kuò)展了參數(shù)數(shù)量,并訓(xùn)練了不同規(guī)模(TINY、SMALL 和 BASE)的模型,分別在不同的均勻噪聲水平0.0, 0.1, 0.2下進(jìn)行訓(xùn)練。

然后,通過指數(shù)擬合繪制了計(jì)算效率前沿,反映帕累托最優(yōu)的驗(yàn)證 ELBO(見圖 4)。

圖片

One More Thing:只是小規(guī)模實(shí)驗(yàn)

由于資源限制,實(shí)驗(yàn)設(shè)置有一定的局限性:

每個(gè)噪聲水平的樣本量僅限于三種不同的計(jì)算預(yù)算,其中最大的計(jì)算預(yù)算仍然相對較小,僅為3.3*10^{20} FLOPs。

作為參考,現(xiàn)代大語言模型的許多標(biāo)志性能力通常需要達(dá)到 10^{22} FLOPs 左右才會(huì)開始顯現(xiàn),這仍然比我們最大的計(jì)算預(yù)算高出兩個(gè)數(shù)量級(jí)。

盡管如此,確實(shí)觀察到了一個(gè)一致的趨勢,即隨著計(jì)算資源的增加,較高水平的均勻噪聲表現(xiàn)更好,盡管這一趨勢的幅度較小。

在僅使用掩碼噪聲的設(shè)置p_u = 0.0中,擴(kuò)展指數(shù)為-0.0586,而加入均勻噪聲后,p_u = 0.1和p_u = 0.2 的擴(kuò)展指數(shù)分別提高到-0.0589和-0.0621。

外推這一趨勢預(yù)測,p_u = 0.2的設(shè)置將在10^{21}FLOPs 左右超過 p_u = 0.0,這一計(jì)算預(yù)算在中到大規(guī)模的訓(xùn)練中通常可以達(dá)到。

然而,必須強(qiáng)調(diào)的是,這次的實(shí)驗(yàn)設(shè)置的局限性使得這種預(yù)測的可靠性較低。

盡管如此,觀察到的擴(kuò)展行為是令人鼓舞的,值得進(jìn)一步研究。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-08-25 08:48:00

2025-03-24 00:00:00

2024-04-17 13:22:55

人工智能

2025-04-25 08:00:00

網(wǎng)絡(luò)安全AI漏洞

2022-10-11 08:00:00

人工智能機(jī)器學(xué)習(xí)數(shù)據(jù)

2025-03-25 09:04:12

2024-10-23 14:04:24

2024-01-15 14:44:19

語言模型PaLMAI

2022-03-25 09:22:42

代碼開發(fā)

2013-08-02 11:06:58

創(chuàng)業(yè)管理

2024-11-18 14:00:00

模型AI

2022-08-03 11:50:29

DeepMindAI瘦身

2025-03-17 08:25:00

模型AI訓(xùn)練

2022-04-07 10:49:42

量子微軟

2025-11-13 08:00:00

大推理模型AI人工智能

2025-06-16 08:46:00

2009-05-15 14:13:25

2024-11-12 13:10:49

2024-06-26 14:50:52

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

日本wwww视频| 仙踪林久久久久久久999| 亚洲伦理精品| 欧美日韩国产三级| 日本久久精品视频| 特级特黄刘亦菲aaa级| 色欧美激情视频在线| 草草视频在线一区二区| 综合久久给合久久狠狠狠97色 | 免费人成视频在线播放| 九色一区二区| 久久久久久久久久久福利| av综合在线观看| 人人狠狠综合久久亚洲婷婷| 福利视频第一区| 国产高清自拍99| 538任你躁在线精品视频网站| 日本一区免费网站| 久久午夜老司机| 久久久欧美精品| 黑人玩弄人妻一区二区三区| 国产经典一区| 亚洲高清免费观看 | 日本a在线免费观看| 亚洲永久精品视频| 国产精品国产三级国产在线观看 | 精品中文字幕av| av中文字幕在线观看| 国产一区二区三区在线看麻豆| 伊人久久精品视频| 亚洲一区二区蜜桃| 高清福利在线观看| 美腿丝袜亚洲一区| 久久久五月天| 欧美日韩国产精品一区二区三区四区| 9999在线观看| 国内精品国产成人国产三级| 美女爽到呻吟久久久久| 国产一区二区三区在线视频| 在线观看免费视频黄| 天堂资源在线| 亚洲国产成人午夜在线一区| 国产视频福利一区| 欧美人妻精品一区二区三区 | 国产精品久久久对白| 久久精品视频9| 国产精品毛片视频| 好吊妞视频这里有精品| 粉嫩av一区二区三区| 欧美寡妇偷汉性猛交| 精品国产乱码久久久久夜深人妻| 青青青国产精品| 亚洲精选在线视频| 国内一区二区在线视频观看| www.com亚洲| 偷拍欧美精品| 久久久成人精品视频| 韩国三级hd中文字幕有哪些| 在线观看爽视频| 欧美日韩国产精品一区二区不卡中文| 少妇av一区二区三区无码| 国产中文字幕在线观看| 韩国欧美国产1区| 性色av一区二区三区| 天天摸日日摸狠狠添| 视频二区欧美| 色成年激情久久综合| 亚洲自拍偷拍一区二区三区| 久久综合网导航| 久久亚洲一级片| 黑人与娇小精品av专区| 麻豆国产va免费精品高清在线| 中文字幕在线视频一区二区| 美女精品久久| 欧美唯美清纯偷拍| 六月婷婷在线视频| 中文不卡1区2区3区| 色婷婷综合久久久| 成人网站免费观看入口| 国产精品一区二区日韩| 中文字幕日韩一区| 欧美老肥婆性猛交视频| 在线精品视频免费观看| 亚洲精品久久区二区三区蜜桃臀 | 久久久久无码国产精品| 日本电影在线观看| 久久婷婷成人综合色| 日本一区二区免费看| 成人免费一级视频| 美日韩一区二区三区| 成人中心免费视频| 国产成人精品777777| 自产国语精品视频| 亚洲天堂精品在线| 一本色道综合久久欧美日韩精品| 国产999精品在线观看| 在线观看日产精品| 中文字幕第六页| 九色精品国产蝌蚪| 日韩精品中文字| 秘密基地免费观看完整版中文| 三级小说欧洲区亚洲区| 亚洲精品国产suv| 精品国产aⅴ一区二区三区东京热 久久久久99人妻一区二区三区 | 中文字幕日本欧美| 免费毛片视频网站| 欧美日韩直播| 亚洲国产精品视频在线观看| 妖精视频在线观看免费| 欧美日韩一区二区综合 | 怡红院一区二区| 欧美一级本道电影免费专区| 久久久久免费视频| 欧美日韩大片在线观看| 久久久成人网| 国产精品一国产精品最新章节| 成人77777| 中文在线资源观看网站视频免费不卡| 精品久久久无码人妻字幂| v片在线观看| 在线观看亚洲精品视频| 国产综合内射日韩久| 色综合天天爱| 免费91麻豆精品国产自产在线观看| 久草手机视频在线观看| 天天色天天射综合网| 日韩av成人在线| 天堂在线视频观看| 久久人人爽人人爽| 男人添女人荫蒂免费视频| 2020国产在线| 一本大道久久a久久综合婷婷| 黄页网站在线看| 久久久久国产| 成人激情春色网| 亚洲精品国产av| 91片黄在线观看| 日韩欧美三级一区二区| 免费a级人成a大片在线观看| 亚洲另类在线视频| 日韩欧美国产片| 涩爱av色老久久精品偷偷鲁| 精品国产一区av| 日本一区二区不卡在线| 久久一日本道色综合久久| 国产人妖伪娘一区91| 福利成人在线观看| 在线观看av不卡| 懂色av粉嫩av浪潮av| 麻豆91在线观看| 国产精品久久久久久久久婷婷| av在线官网| 欧美v亚洲v综合ⅴ国产v| bl动漫在线观看| 91亚洲国产成人久久精品| 欧美精品免费看| 99国产精品久久久久99打野战| 不卡av电影在线播放| 亚洲 国产 欧美一区| 男女视频在线| 精品久久久久久久一区二区蜜臀| 国产在线观看你懂的| 成人免费av资源| 一区精品在线| а√在线中文网新版地址在线| 精品播放一区二区| 蜜桃av免费观看| 狠狠色丁香九九婷婷综合五月| 免费看av软件| 国产精品videossex| 久久久久久网址| 黄色av网站在线| 在线播放一区二区三区| 中文字幕一区二区三区人妻电影| 久久免费国产| 天堂v在线视频| 久久精品国产亚洲blacked| 日本国产一区二区三区| 亚洲精品国产片| 精品欧美激情精品一区| 韩国女同性做爰三级| 一区二区日韩免费看| 51蜜桃传媒精品一区二区| 国产视频二区在线观看| 51精品国自产在线| 成人免费视频毛片| 成人av在线一区二区三区| 91av在线免费播放| 日本午夜精品| 国产日韩欧美另类| www.51av欧美视频| 精品国产美女在线| 你懂的免费在线观看视频网站| 亚洲一区影音先锋| 久久aaaa片一区二区| 午夜影院日韩| 久久久久久九九| 成人自拍视频| 茄子视频成人在线| 在线观看wwwxxxx| 日韩一区二区三区电影在线观看| 亚洲欧美日韩一级| 日本视频www色| 岛国精品在线观看| 五月天婷婷激情视频| 亚洲东热激情| 国产在线一区二区三区欧美| 影音成人av| 97精品视频在线播放| av片在线免费看| 丁香花电影在线观看完整版| 在线观看视频一区二区 | 中文字幕视频在线免费欧美日韩综合在线看| 国产91在线播放九色| 欧美先锋影音| 亚洲自拍在线观看| 黄色网址在线免费| 精品亚洲国产视频| 国产77777| 欧美一区二区三区影视| 亚洲怡红院在线观看| www亚洲一区| 日本一级大毛片a一| 久久国产精品72免费观看| 正义之心1992免费观看全集完整版| 国产精品久久久久久久久久白浆| 国产日韩欧美在线观看| 亚洲高清黄色| 视频在线观看99| 国产三级按摩推拿按摩| 欧美午夜在线观看| 国产精品久久久久久久久久精爆| 亚洲1区2区3区4区| www.色天使| 麻豆国产精品视频| 激情综合网婷婷| 亚洲欧美视频| 成人免费毛片网| 亚洲影院免费| 国内外成人激情视频| 国产精品乱看| 亚洲黄色一区二区三区| 9i精品福利一区二区三区| 久久影视一区| 日日骚一区二区网站| 国产精品入口久久| 91精品国产综合久久男男| 精品网站在线| 国产精品入口福利| 色呦呦在线播放| 日韩成人在线观看| 亚洲在线观看av| 欧美日本在线视频| 国产精品久久久久久无人区 | 亚洲国产精品一区二区三区| 成人毛片视频免费看| 亚洲成人亚洲激情| 中文字幕乱码人妻无码久久| 一区二区三区日本| av女人的天堂| 国产欧美日韩三级| 少妇熟女视频一区二区三区| 国产成人精品一区二| 乱子伦视频在线看| 麻豆精品视频在线| 中文字幕第六页| 成人福利视频网站| 亚洲国产无码精品| 国产精品久久久99| 性欧美成人播放77777| 久久久久久久久久久99999| 五月天国产视频| 粉嫩蜜臀av国产精品网站| 亚洲男人在线天堂| 国产成人自拍网| 国产精品九九视频| 国产亚洲欧美一区在线观看| 亚洲最大视频网| 91免费小视频| 日本在线观看网址| 夜夜爽夜夜爽精品视频| 一二三四在线观看视频| 亚洲欧美日韩国产综合在线| 国产又粗又猛又爽视频| 国产精品无码久久av| 日韩欧美国产一区二区| 曰本女人与公拘交酡| 亚洲mv在线观看| 综合久久中文字幕| 精品粉嫩超白一线天av| 成人在线免费公开观看视频| 欧美精品日韩三级| 亚洲1234区| 国产成人精品日本亚洲11| 精品日本12videosex| 国产精品久久久久7777| 日韩电影在线观看一区| 国产精品亚洲αv天堂无码| 精品一区二区三区蜜桃| 日本丰满少妇裸体自慰| 亚洲视频一区在线| youjizz在线视频| 日韩一区二区三区视频| 战狼4完整免费观看在线播放版| 免费在线成人激情电影| 日本精品久久久| 日韩一区免费| 日本一区二区三区免费观看 | 久久亚洲国产成人精品无码区| 日本国产精品| 福利网在线观看| 美女91精品| 一级黄色电影片| 国产精品二三区| 日本a在线免费观看| 丰满人妻一区二区三区免费| 美女久久99| 依依成人综合视频| 91久久久久久久久久| 欧美做爰啪啪xxxⅹ性| 午夜福利理论片在线观看| 猫咪成人在线观看| 色婷婷精品久久二区二区蜜臂av | 91麻豆精品激情在线观看最新 | 亚洲香蕉网站| 国产精品裸体一区二区三区| 欧美一区二区三区高清视频| 国产精品久久久久av免费| 欧美激情亚洲天堂| 色哟哟在线观看| 欧美色综合网| 亚洲网站在线播放| 巨乳女教师的诱惑| 国产色综合久久| 成人毛片在线播放| 色8久久人人97超碰香蕉987| 亚洲精品喷潮一区二区三区| 久久精品国产视频| 亚洲福利影视| 亚洲一区二区三区精品视频| 伊人情人综合网| 91女神在线观看| 国产精品电影一区二区三区| 中文字幕+乱码+中文| 一本色道久久综合狠狠躁篇怎么玩 | 国产精品影视网| 精品国产午夜福利在线观看| 国产精品国产三级国产普通话99 | 激情小说亚洲色图| 每日在线观看av| 99免费精品在线| 日韩女同一区二区三区 | 99精品女人在线观看免费视频 | 亚洲 另类 春色 国产| 性亚洲最疯狂xxxx高清| 欧美五码在线| 国产综合免费视频| 国产精品婷婷午夜在线观看| 在线视频免费观看一区| 日韩亚洲在线观看| 精品国产18久久久久久二百| www.成年人视频| 久久这里只有精品6| 五月天中文字幕| 日韩在线精品视频| 日韩精品成人在线观看| 国产不卡一区二区视频| 久久综合给合久久狠狠狠97色69| 欧美三级网站在线观看| 久久香蕉国产线看观看网| 综合欧美亚洲| 午夜老司机精品| 极品少妇xxxx精品少妇偷拍| 免费三片在线播放| 日韩精品视频在线| 日韩av大片站长工具| 伊人久久大香线蕉精品| 丁香一区二区三区| 51国产偷自视频区视频| www.美女亚洲精品| 国产成人精品亚洲线观看| av五月天在线| 亚洲精品视频免费观看| 欧美伦理影视网| 91热精品视频| 在线一区免费观看| 欧美性猛交xxxx乱大交少妇| 久久这里都是精品| 日本人添下边视频免费| 在线视频一区二区三| 黄网站免费在线播放| 精品国产乱码久久久久久久软件| 黄色大片在线看| 亚洲第一福利一区| 刘亦菲毛片一区二区三区| 日本一区二区不卡| 欧美激情1区2区| 三级av免费看| 国产精品国产三级国产aⅴ中文 | 亚洲免费人成在线视频观看|