精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等

發(fā)布于 2024-11-14 15:09
瀏覽
0收藏

一、背景

最近在看騰訊最新混元大模型的 Paper 時([2411.02265] Hunyuan-Large: An Open-Source MoE Model with 52 Billion Activated Parameters by Tencent [1]),看到了如下關(guān)于計算 Budget 的公式

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

由于我們的工作中也會經(jīng)常根據(jù)計算資源 Budget 評估 LLM 預(yù)訓(xùn)練時間,而該公式與我們平常的計算方式不太一致;此外,如下圖所示,我們也看到很多文章中將上述公式中的第二項理解為長序列情況下 Attention 的額外計算開銷,而將 6ND -> 9.6ND 看成 Router 引入的開銷,與我們的計算結(jié)論也非常不一致,因此本文中我們簡單回顧一下相關(guān)內(nèi)容。

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

本文中的很多內(nèi)容我們在之前的文章中已經(jīng)介紹過,具體可以參考:

  • LLaMA 3 技術(shù)報告解讀:全面梳理 LLM 相關(guān)技術(shù)棧
  • 萬卡 GPU 集群實戰(zhàn):探索 LLM 預(yù)訓(xùn)練的挑戰(zhàn)

二、LLM 參數(shù)量&計算量

2.1 Dense LLM 參數(shù)量

標(biāo)準(zhǔn) Transformer 模型不管是 Encoder Only 的 Bert 系列模型,還是 Decoder Only 的 GPT 系列模型,同配置下參數(shù)量和計算量都是類似的。其中的一個關(guān)鍵點是:標(biāo)準(zhǔn) Transformer Block 輸入、輸出以及中間 Attention Out 的 Hidden Dim 是保持不變的,也就是一直是 Token Embedding 的 Hidden Dim。所有的 Transformer Block 都非常規(guī)整。

如下圖 Figure 1 Encoder 所示(圖片來自 [2302.14017] Full Stack Optimization of Transformer Inference: a Survey [2]),主要參數(shù)都來自幾個矩陣乘的 Weight 矩陣,其中 d 表示 Token Embedding 的 Hidden Dim,l 表示 Token 數(shù),h 表示 MHA 中的 Head 個數(shù),dFFN 表示 FFN 層中間升維后的 Dim。具體來說:

  • MHA紅框:Wq,Wk,Wv 的大小都是 d x d。當(dāng)然這里也可以從 h 個 Head 的角度去看,則每個 Head 的 Wq,Wk,Wv 為 d x d/h,實際上參數(shù)量和計算量都是等價的。
  • MHA藍(lán)框:在 MHA 的最后還有一個矩陣乘操作,對應(yīng)的 Wout 維度依然為 d x d。
  • FFN綠框:在標(biāo)準(zhǔn) Transformer 的 FFN 中有兩個 Linear 層,先升維再降維,對應(yīng)的 Weight 矩陣 W1 和 W2 的大小都是 dFFN x d,并且標(biāo)準(zhǔn)的 dFFN 為 4d,也就是說 FFN 處兩個權(quán)重矩陣的參數(shù)量為 8d x d。?

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

綜上,在標(biāo)準(zhǔn)的 Transformer 模型或者 LLaMA 系列(MHA)中,如果忽略詞表、Embedding、LayerNorm 等參數(shù)后,總參數(shù)量為(所有 Transformer Block):

N = nlayer *(nmha + nffn) = nlayer *(3d*d + d*d + 8d*d) = 12*nlayer*d*d

2.2 LLaMA LLM 參數(shù)量

2.2.1 SwiGLU

在 LLaMA 等模型中在 FFN 中會使用 SwiGLU 激活,這也就導(dǎo)致其會額外多了一個權(quán)重矩陣,如下圖所示:

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

在 LLaMA-1 的 Paper([2302.13971] LLaMA: Open and Efficient Foundation Language Models [3])中作者提到,使用 SwiGLU 后將 dFFN 從 4d 降低到了 8d/3。這樣 3 個權(quán)重矩陣的參數(shù)量還是 8d,總的參數(shù)量依然可以使用 12*nlayer*d*d 預(yù)估。

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

2.2.2 GQA

之前公式對應(yīng)的是 MHA(Multi Head Attention),這也是 LLaMA-1 系列模型的標(biāo)準(zhǔn)實現(xiàn)。不過,LLaMA-2 的 30B 和 70B 模型以及 LLaMA-3 的全部模型都開始使用 GQA(Grouped Query Attention)。使用 GQA 時,多個 Attention Head 會共享一個 Key 和 Value,比如常見的配置是每 4 或 8 個 Head 共享相同的 Key 和 Value,此時 Wk,Wv 的大小會變?yōu)?d x d/g,其中 g 表示每 g 個 Head 共享相同的 Key 和 Value。

在 LLaMA 2 的 Paper([2307.09288] Llama 2: Open Foundation and Fine-Tuned Chat Models [4])中,作者提到,為了保持使用 GQA 和使用 MHA 的總參數(shù)量保持不變,對于 GQA 模型,會將 FFN Dim 維度乘以 1.3(PS:不確定 1.3 是怎么來的):

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

比如 LLaMA 2 70B 的 d 為 8192,dFFN 為 28672,如下圖所示,大概計算方式為(512 對齊):

int(int(8192*8/3*1.3+512-1)/512)*512=28672

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

比較奇怪的的是 CodeLLaMA 34B 中使用了 GQA,但并未乘以 1.3(雖然 LLaMA 2 34B 未開源,但 LLaMA 2 34B 與 CodeLLaMA 34B 一樣,也就是說 LLaMA 2 34B 中也未乘以 1.3)。如下圖所示,其中 d 為 8192,dFFN 為 22016,大概計算方式為(512 對齊):

int(int(8192*8/3+512-1)/512)*512=22016

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

其實關(guān)于 dFFN 的數(shù)值在 LLaMA 3.1 早期的技術(shù)報告中也鬧過烏龍,如下圖 Table 3 所示,其直接將 dFFN 寫成為 3d/2:

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

如下圖 Table 3 所示,Meta 在 Arxiv 上的 Paper([2407.21783] The Llama 3 Herd of Models [5])中已經(jīng)修正了這個問題,比如對于 8B 模型,d 為 4096,dFFN 為 14336,大概計算方式為(512 對齊):

int(int(4096*8/3*1.3+512-1)/512)*512=14336

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

2.2.3 LLaMA 3

經(jīng)過上述調(diào)整之后,LLaMA 3 不再是標(biāo)準(zhǔn)的 Transformer Block,此時使用 N=12*d*d 來預(yù)估參數(shù)量已經(jīng)不太準(zhǔn)確。但依舊可以將其按照(Wq,Wout)(Wk,Wv),WFFN 和 WEmb 4 個部分來統(tǒng)計。比如,對于 LLaMA 3 模型,我們可以按照下述方式估計其參數(shù)量:

N = nlayer *(2d*d + 2d*d*kv/h + 3d*dFFN)+2*Vocab*d

根據(jù)上述公式,可以推算出上述不同模型的參數(shù)量:

8B:32*(4096*4096*(2+2*8/32)+3*4086*14336)+2*128000*4096=8B

70B:80*(8192*8192*(2+2*8/64)+3*8192*28672)+2*128000*8192=70B

405B:126*(16384*16384*(2+2*8/128)+3*16384*53248)+2*128000*16384=405B

2.3 Dense LLM 計算量

其實整體的計算量(僅考慮 Forward 操作)也是集中在模型中的一些矩陣乘法,包括:

  • MHA紅框:Wq,Wk,Wv 對應(yīng)的計算量都為 2 x (d x d x l),其中 2 表示一個乘法和一個加法。
  • MHA藍(lán)框:Wout 對應(yīng)的計算量為 2 x (d x d x l)。
  • MHA Attention(綠色方塊):2 x (l x d/h x l + l x d/h x l) x h = 4 x d x l x l。需要說明的是,如果是 Decoder(LLM),由于 Causal Mask 的存在,此處的計算量應(yīng)該減半,也就是 2 x d x l x l。
  • FFN綠框:W1 和 W2 對應(yīng)的計算量為 2 x (dFFN x d x l) 和 2 x (d x dFFN x l)。LLaMA 的 SwiGLU 類似。?

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

也可參考  [2302.14017] Full Stack Optimization of Transformer Inference: a Survey 中的 Table 2,其中列出了相應(yīng)矩陣乘操作的 Dim,也就可以推出對應(yīng)的計算量:

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

綜上,在標(biāo)準(zhǔn)的 Transformer 模型或者 LLaMA 系列(MHA)中,如果忽略詞表、Embedding、LayerNorm 等模塊,總計算量為(所有 Transformer Block):

C = nlayer *(cmha + cffn) = nlayer *2*(3d*d*l + d*d*l + d*l*l + 8d*d*l)

C =  24*nlayer*d*d*l + 2*nlayer*d*l*l = 2*N*l + 2*nlayer*d*l*l

由于大部分情況下預(yù)訓(xùn)練的序列長度 l 遠(yuǎn)小于 12d,比如:

  • LLaMA-1 7B 的 d 為 4K,預(yù)訓(xùn)練的 l 為 2K。
  • LLaMA-2 7B 的 d 為 4K,預(yù)訓(xùn)練的 l 為 4K。
  • LLaMA-3 8B 的 d 為 4K,預(yù)訓(xùn)練的 l 為 8K。

同理,如果是 Encoder 模型,比如 Bert,總的計算量為:

C = nlayer *2*(3d*d*l + d*d*l + 2*d*l*l + 8d*d*l) = 2*N*l + 4*nlayer*d*l*l

PS:其實不管模型中是否使用 GQA,是否使用 SwiGLU 或者像 LLaMA 中那樣將 FFN Dim 再乘以 1.3,其計算量還都可以用 C=2*N*l + 2*nlayer*d*l*l 來近似。

在 Scaling Law 的原始 Paper([2001.08361] Scaling Laws for Neural Language Models [6])中也有類似的計算公式,如下圖 Table 1 所示,可以看出其推導(dǎo)結(jié)論與上述我們的計算方式也基本一致,只不過紅框中為每個 Token 的計算量:

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

假設(shè)數(shù)據(jù)集中總共包含 D 個 Token,對于序列不是特別長的場景,所有 Token Forward的計算量可以近似為 C=2*N*D。

2.4 LLM 訓(xùn)練計算量

模型的訓(xùn)練包含 Forward 和 Backward 過程,如下圖 Figure 1 所示,Backward 過程實際上包含兩部分,一部分是對輸入的梯度(鏈?zhǔn)椒▌t),一部分是對權(quán)重的梯度。其實這兩部分主要的計算量都是矩陣乘法,并且大小與 Forward中的大小一致,因此往往會直接近似 Backward 的計算量為 Forward 的 2 倍。 

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

綜上,訓(xùn)練總的計算量(參數(shù)更新計算量比較小,這里先忽略)為:

C = Forward + Backward = 6*N*D。

需要說明的是,在 [2104.04473] Efficient Large-Scale Language Model Training on GPU Clusters Using Megatron-LM [7] 中 NVIDIA 使用了 Activation 重計算,所以需要多一次 Forward 操作,相應(yīng)總的計算量為:

C = 2*Forward + Backward = 8*N*D。

2.5 MoE LLM 計算量

MoE(Mixture of Experts)與標(biāo)準(zhǔn) Transformer 模型的不同在于:MoE 模型將 Transformer 模型的 FFN Block 替換為 MoE Block,其中 MoE Block 由多個 Expert 組成,每一個 Expert 都是標(biāo)準(zhǔn)的 FFN,實際計算時每個 Token 都會經(jīng) Router 選擇 1 個或多個 Expert,然后執(zhí)行類似 FFN 的計算。如下圖所示(圖片來自 A Visual Guide to Mixture of Experts (MoE) [8]):

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

由于 Router 的計算量通常很小,常常可以忽略。如果不考慮 Router 引入的計算量,由于上述每個 Expert 實際上與非 MoE 模型的 FFN 一樣,因此也可以用同樣的方式推導(dǎo)出訓(xùn)練時每個 Token 的計算量依然為 C=6*N*D,只不過這里的 N 不再是整個模型的參數(shù)量,而是每個 Token 激活的參數(shù)量。

如下圖所示,論文 [2402.07871] Scaling Laws for Fine-Grained Mixture of Experts [9] 中,作者也推到過 MoE 中計算量的公式,為了普適性,作者考慮了細(xì)粒度專家的場景,具體來說:

  • G(Granularity):表示粒度,也就是將一個完整的 FFN 切分為多少個細(xì)粒度的專家,比如一個 FFN 可以切分為 8 個小專家,每個專家的參數(shù)量為原始 FFN 的 1/8。
  • E(Expansion rate):表示膨脹率,也就是所有專家的參數(shù)量擴展為單個標(biāo)準(zhǔn) FFN 參數(shù)量的多少倍。比如,G=8,總共 64 個細(xì)粒度專家,則這里的 E=64/8=8,相當(dāng)于有 8 個同標(biāo)準(zhǔn)規(guī)模的 FFN。
  • cf:表示除 Router 之外的計算量與參數(shù)量的比值,也就是我們上述得到的 6。
  • cr:表示 Router 的計算量與參數(shù)量的比值,對于比較簡單的 Router,通常為 6-20。?

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

從上述介紹也可以看出,通常 E*G 遠(yuǎn)小于 dmodel,因此也就可以忽略 Router 處的計算量。

2.6 Hunyuan MoE 參數(shù)量

首先使用之前的公式來計算 Hunyuan MoE 的總參數(shù)量和激活參數(shù)量,還是按照(Wq,Wout)(Wk,Wv),WFFN 和 WEmb 4 個部分:

  • Wq,Wout:依舊是 2 x d x d
  • Wk,Wv:由于使用了 GQA + CLA,每層 80 個 Head,并且只有 8 個 Key/Value Head,而 CLA 每 2 層共享 KV,等效于每層的 WK 和 WV 為 d x d/ 20。
  • WFFN:每層 17 個 Expert,但每個 Token 激活 2 個 Expert。相當(dāng)于 MoE Layer 的總參數(shù)量為 17 x 3 x d x dFFN,激活參數(shù)量為 2 x 3 x d x dFFN。
  • WEmb:由于 tie_word_embeddings 為 True,因此共享 Embedding,參數(shù)量為 vocab_size x d。

根據(jù)上述 4 個部分,可以得出與論文一致的參數(shù)量(389B,52B):

總參數(shù)量:

64*(2*6400*6400+2/20*6400*6400+3*17*6400*18304)+128512*6400=388.7B

激活參數(shù)量:

64*(2*6400*6400+2/20*6400*6400+3*2*6400*18304)+128512*6400=51.3B

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

2.7 Hunyuan MoE 計算量

我們重新回顧 Hunyuan MoE 中的計算量 C,如下圖 Table 1 所示為 Hunyuan MoE 的模型配置。如下圖所示,作者提到其序列長度可以達(dá)到 8K,32K,256K。

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

這里以最短的 8K 序列長度為例。由于我們之前計算過,每個 Token 在 Attention 處忽略的計算量為 2*nlayer*nctx*d,相應(yīng)可以得出 Attention 額外的計算量為:

2*64*8*1024*6400=6710886400=6.7*109 >> 2.3*108

可以看出,將 2.3x108D 理解為長序列時 Attention 的計算開銷是不合理的。

除此之外,我們之前還忽略了 Router 的計算量,那么如果將其看成 Router 的計算量呢?因為有 16 個 Specialized Expert,相當(dāng)于 EG=16。對于比較簡單的 Router,cr 為 6-20 之間,如下所示推導(dǎo)出 cr 為 35 也可以接受。

64*6400*16*cr=2.3*108  =>  cr =35

按照上述的推導(dǎo),那么 9.59ND 更可能是除 Router 之外的計算量,為什么這里不再是 6ND 呢?作者特意提到了長序列場景,因此我們不再忽略額外的 Attention 計算,從頭推導(dǎo)一下對應(yīng)的 C:

  • 上述激活參數(shù)對應(yīng)的計算量為:6 * 51.3B*D=6ND。
  • 額外的 Attention 的計算量為:6*nctx*6400*nlayer*D4=3.59ND。

如果除了 Router 外總的計算量為 C=9.59ND,可以得出,相當(dāng)于序列長度為 73K:

nctx = 3.59N/6/6400/64 = 74938 = 73K

然而作者在論文中也提到,長文本訓(xùn)練并不需要特別多的 Token,在 32K 和 256K 階段也都只使用了 10B Token,遠(yuǎn)小于預(yù)訓(xùn)練階段的 7T Token。所以依然比較奇怪 9.59 是怎么來的。

2.8 Megatron-LM 計算量計算

如下圖所示為 Megatron-LM 中有關(guān)計算量的計算公式(megatron/training/training.py#L98-L151 [10]),需要說明的是,這里的 expansion_factor 為 12:

  • 第一行的 3 表示 Forward + Backward。
  • 第二行的 2 表示將 Attention Block 和 FFN Block 都分別看成兩組,比如 Attention 中 K 和 V 是一對,Q 和 Out 是一對,Attention 的 Q x K 和 Score x V 是一對。
  • 第三行的 2 表示矩陣乘法中的乘和加,如果從單個 Token 單個矩陣乘的視角,計算量就是參數(shù)量的 2 倍。?

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

三、LLM 訓(xùn)練效率&訓(xùn)練預(yù)估

3.1 MFU & HFU

為了評估 LLM 訓(xùn)練時的效率,業(yè)界通常會使用 Model FLOPS Utilization(MFU) 和 Hardware FLOPS Utilization(HFU) 兩個關(guān)鍵指標(biāo)來評估模型的 Forward 和 Backward 傳播過程中(包括任何的網(wǎng)絡(luò)同步開銷和 DataLoader IO)硬件的利用率。

  • MFU = 預(yù)估 FLOPS/硬件理論 FLOPS。其中,預(yù)估 FLOPS 就是模型訓(xùn)練時理論需要的計算量,并不包括各種優(yōu)化方案額外引入的計算量,比如 Gradient Checkpointing/Activation Recomputation 等引入的額外計算量。
  • HFU = 實際 FLOPS/硬件理論 FLOPS。其中,實際 FLOPS 也就是理論上所有實際發(fā)生的計算量,包含 Gradient checkpointing/Activation Recompution 等引入的額外計算量,因此 HFU 應(yīng)該總是 >= MFU。

如下所示為 Maximizing training throughput using PyTorch FSDP [11] 中 Meta 在 LLM 訓(xùn)練時的 MFU 和 HFU。對于 LLM 訓(xùn)練任務(wù)而言,通常在 A100/A800 GPU 集群中,MFU 可以達(dá)到 50%+,甚至接近 60%;而在 H100/H800 GPU 集群中, MFU 往往不超過 50%。

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

3.2 175B 訓(xùn)練實際預(yù)估

有了以上的計算公式,根據(jù)每個 Token 計算量(6N)、總的 Token 數(shù),以及計算資源就可以大概預(yù)估出訓(xùn)練的總時長。如下所示:

訓(xùn)練天數(shù) = Token 數(shù) * Ctoken / (GPU 數(shù) * GPU FLOPs * MFU * 3600 * 24)

根據(jù)以上公式可以預(yù)估使用 8192 H100-80G GPU(FLOPs 為 989T),10T Token 數(shù)據(jù)訓(xùn)練 175B 模型的天數(shù)為 30 天,其中假設(shè) MFU 為 50%:

10T*6*175B/(8192*989T*50%)/3600/24=30 天

當(dāng)然,上述是理想的估算,實際的訓(xùn)練中往往無法保證一直穩(wěn)定的訓(xùn)練,比如可能出現(xiàn)機器異常導(dǎo)致任務(wù)中斷、降速等,因此在上述理論預(yù)估的基礎(chǔ)上往往會留一定的 Buffer,比如 10% 的 Buffer 時長。

3.3 LLaMA 3 405B 訓(xùn)練實際預(yù)估

對于 LLaMA 3 405B 模型,使用 15T Token,16384 H100 GPU,MFU 為 41%,那么對應(yīng)的理想訓(xùn)練時間為:

15T*6*405B/(16384*989T*41%)/3600/24=42.3 天

然而,Meta 在 LLaMA 3 的技術(shù)報告([2407.21783] The Llama 3 Herd of Models)中介紹 LLaMA 3 的預(yù)訓(xùn)練時間在 54 天左右,比 42.3 天多一些,可能得原因有幾個方面。

其中一個原因可能是其提到的多達(dá) 466 次的訓(xùn)練中斷,其中包括 47 次有計劃中斷,以及 419 次的預(yù)期外中斷。在非預(yù)期中斷中,78% 是硬件問題,例如 GPU 或物理機其他組件的異常,而 GPU 相關(guān)問題占到 58.7%。

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

另一個可能的原因是不同訓(xùn)練階段使用了不同規(guī)模的 GPU 和數(shù)據(jù)量。比如,如下圖 Table 4 所示涉及到 3 種不同的配置:

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

但上述配置并不能與作者介紹的 405B 模型預(yù)訓(xùn)練階段對應(yīng)。比如,作者提到,在訓(xùn)練的早期階段使用比較小的 Batch Size以提高訓(xùn)練穩(wěn)定性,然后會增加 Batch Size 以提高訓(xùn)練效率。具體來說:

  • 初始時 4K 序列長度,一個 Batch 內(nèi) 4M Token,對應(yīng) Global Batch Size 為 1K。
  • 訓(xùn)練 252M Token 后擴展到 8K,共 8M Token,對應(yīng) Global Batch Size 為 1K。
  • 訓(xùn)練到 2.87T Token 時進一步 Double Batch Size,擴展到 16M Token,對應(yīng) Global Batch Size 為 2K。
  • 針對長序列訓(xùn)練:作者分為 6 個階段逐步增加上下文長度,將序列長度從最初的 8K擴展 到最終的 128K,這個階段大約使用了 800B Token。

3.4 其他數(shù)據(jù)

其實很多 Paper 中也會簡單提到其訓(xùn)練模型規(guī)模、訓(xùn)練資源、時長、MFU 等指標(biāo),但往往一筆帶過,如下所示為一些示例:

HunYuan MoE:聊一聊 LLM 參數(shù)量、計算量和 MFU 等-AI.x社區(qū)

以上圖中 Nemotron-4 340B 的相應(yīng)配置可以預(yù)估出對應(yīng)的訓(xùn)練時長,可以看出與實際時長非常接近:

0.2T*6*340B/(1536*989T*42.4%)/3600/24=7.3 天

0.2T*6*340B/(3072*989T*42.3%)/3600/24=3.7 天

7.6T*6*340B/(6144*989T*41%)/3600/24=72 天

四、參考鏈接

  1. https://arxiv.org/abs/2411.02265
  2. https://arxiv.org/abs/2302.14017
  3. https://arxiv.org/abs/2302.13971
  4. https://arxiv.org/abs/2307.09288
  5. https://arxiv.org/abs/2407.21783
  6. https://arxiv.org/abs/2001.08361
  7. https://arxiv.org/pdf/2104.04473
  8. https://newsletter.maartengrootendorst.com/p/a-visual-guide-to-mixture-of-experts
  9. https://arxiv.org/abs/2402.07871
  10. https://github.com/NVIDIA/Megatron-LM/blob/main/megatron/training/training.py#L98-L151
  11. https://pytorch.org/blog/maximizing-training/

本文轉(zhuǎn)載自 ??AI閑談??,作者: AI閑談

標(biāo)簽
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦
全部免费毛片在线播放一个| 99热精品免费| 九七影院97影院理论片久久| 1024成人网| 国产丝袜不卡| 中文字幕 自拍偷拍| 亚洲国产一成人久久精品| 亚洲成人av中文字幕| 可以免费观看av毛片| 久久精品视频观看| 成人国产精品免费观看| 国产精品一区二区久久| 国产精品99无码一区二区| 欧美天天综合| 亚洲成人久久一区| 亚洲精品性视频| 欧亚在线中文字幕免费| 亚洲男同1069视频| 欧洲在线视频一区| 亚洲精品字幕在线| 奇米精品一区二区三区在线观看| 高清欧美性猛交| 网站永久看片免费| 午夜欧洲一区| 精品国产第一区二区三区观看体验| 91视频免费版污| av手机在线观看| ...xxx性欧美| 五月天亚洲综合情| 你懂的免费在线观看| 国v精品久久久网| 91精品视频网站| 国产精品成人久久久| 国产欧美91| 欧美精品激情在线观看| 婷婷久久综合网| 日韩精品免费一区二区三区| 亚洲乱码一区av黑人高潮| 五月天丁香社区| 激情不卡一区二区三区视频在线| 欧洲一区在线观看| 成人三级视频在线播放 | 日韩在线欧美在线| 中文字幕在线看高清电影| 黑色丝袜福利片av久久| 精品sm捆绑视频| wwwxxx色| 午夜免费欧美电影| 日韩视频免费观看高清完整版 | 尤蜜粉嫩av国产一区二区三区| 大桥未久在线视频| 亚洲风情在线资源站| avav在线播放| 欧美xxx黑人xxx水蜜桃| 亚洲综合精品自拍| 国内精品视频一区二区三区| 蜜桃传媒在线观看免费进入| 一区二区三区欧美久久| 久久久久久av无码免费网站下载| 色yeye免费人成网站在线观看| 一区二区三区在线看| 中文字幕の友人北条麻妃| 影音先锋在线播放| 亚洲一区二区高清| 国产一级爱c视频| 色是在线视频| 91国产精品成人| wwww.国产| 99久热在线精品视频观看| 91精品国产免费久久综合| 午夜视频在线免费看| 久久精品福利| 亚洲性69xxxbbb| 亚洲人与黑人屁股眼交| 一区二区影视| 91po在线观看91精品国产性色 | 久久香蕉一区| 懂色av中文一区二区三区天美| 男人揉女人奶房视频60分| 波多野结衣亚洲| 在线区一区二视频| 日本高清一区二区视频| 亚洲午夜精品| 日韩成人中文电影| 大胸美女被爆操| 欧美日韩综合| 国产精品91久久久久久| 91亚洲精品国偷拍自产在线观看| 国产不卡视频一区| 欧美另类网站| 免费高清完整在线观看| 亚洲福利一区二区| 91制片厂毛片| 久久精品色综合| 久久精品视频99| 日韩成人av毛片| 蜜桃视频一区二区三区| 99久久综合狠狠综合久久止 | 久久精品日韩一区二区三区| 伊甸园精品99久久久久久| 俄罗斯一级**毛片在线播放| 欧洲精品一区二区| 国产av一区二区三区传媒| 欧美亚洲高清| 欧美中文在线观看国产| 国产免费的av| 国产色婷婷亚洲99精品小说| 日韩精品一区二区在线视频| 男女啪啪999亚洲精品| 亚洲电影av在线| 欧美视频一区二区在线| 亚洲欧美日韩国产综合精品二区| 91探花福利精品国产自产在线| 三级国产在线观看| 亚洲黄色免费网站| 亚洲xxxx2d动漫1| 国产96在线亚洲| 久久中国妇女中文字幕| 欧美男人亚洲天堂| 成人深夜视频在线观看| 宅男在线精品国产免费观看| 欧美××××黑人××性爽| 亚洲国产欧美一区| 久热这里有精品| 狠狠色丁香久久婷婷综合丁香| 欧美久久综合性欧美| 韩国精品一区| 337p日本欧洲亚洲大胆色噜噜| 中国毛片直接看| 精品伊人久久久久7777人| 日韩欧美精品一区二区| 理论片午夜视频在线观看| 精品久久国产字幕高潮| 免费在线视频观看| 国产一区二区女| 在线视频精品一区| 色综合久久久| 最近中文字幕日韩精品 | www.国产精品| 国产亚洲欧美日韩美女| 亚洲永久精品在线观看| 99精品桃花视频在线观看| 欧美成人精品免费| 视频一区日韩| 欧美精品videos| 囯产精品一品二区三区| 亚洲自拍与偷拍| 亚洲欧美日韩中文字幕在线观看| 一区二区三区四区日韩| 91免费看蜜桃| 欧美理论片在线播放| 欧美不卡在线视频| 久久久久久久久艹| 成人18视频在线播放| 国内少妇毛片视频| 丁香五月缴情综合网| 国精产品一区一区三区有限在线| 国模私拍视频在线| 欧美日韩久久久久| 精品人妻一区二区三区视频| 视频一区视频二区中文字幕| 日本在线播放一区| 国产福利亚洲| 久久成人综合视频| 亚洲毛片在线播放| 欧美日韩精品在线观看| 国产精品天天干| 捆绑紧缚一区二区三区视频| 99热都是精品| 老司机凹凸av亚洲导航| 国产成人精品一区二区| 调教视频免费在线观看| 日韩欧美一区二区不卡| 日本三级网站在线观看| wwwwww.欧美系列| 九色91popny| 欧美一区影院| 欧美福利精品| 疯狂欧洲av久久成人av电影 | 国产一级做a爱免费视频| 97精品久久久午夜一区二区三区 | 久久久久久亚洲av无码专区| 国产精品毛片久久久久久久| 天天操夜夜操很很操| 在线一区免费观看| 亚洲欧美电影在线观看| 亚洲一区二区三区在线免费| 国产91精品青草社区| 日本三级视频在线播放| 亚洲精品国产suv| 亚洲天堂视频网| 亚洲地区一二三色| 日本精品在线观看视频| 国产99精品在线观看| 欧洲熟妇精品视频| 欧美日韩三级电影在线| 人禽交欧美网站免费| 玖玖玖视频精品| 国产91网红主播在线观看| a黄色片在线观看| 一区二区欧美久久| 欧洲av在线播放| 欧美日韩一区二区在线视频| 日韩少妇高潮抽搐| 中文字幕日韩一区| 欧美激情aaa| 成人高清免费观看| www.这里只有精品| 性xx色xx综合久久久xx| 男女啪啪免费观看| 久久国产精品亚洲人一区二区三区 | 日韩资源在线观看| 天堂网www中文在线| 欧美一区二区国产| 最新黄色网址在线观看| 狠狠干狠狠久久| 国产一级做a爱免费视频| 亚洲欧洲日韩综合一区二区| 在线观看国产精品一区| 成人动漫一区二区| 99视频在线观看视频| 美女诱惑一区二区| 少妇性l交大片| 国产一区二区三区久久| 国产免费黄色一级片| 欧美日本三区| 日本特级黄色大片| 欧美影院三区| 日韩欧美手机在线| 一区二区三区视频免费观看| 国产精品一区二区三区不卡| 国产一区二区三区黄网站| 国产精品在线看| 91p九色成人| 国产精品久久久久久久久影视| xxxxx性欧美特大| 日韩暖暖在线视频| 在线观看涩涩| 奇米4444一区二区三区| 午夜影视一区二区三区| 国内揄拍国内精品| gratisvideos另类灌满| 欧美极品在线播放| 69av成人| 奇米4444一区二区三区| 欧美无毛视频| 国产精品福利片| 在线日本欧美| 国产日产欧美a一级在线| 久久av影院| 成人午夜激情网| 日韩在线观看中文字幕| 国产成人亚洲欧美| 极品束缚调教一区二区网站 | 日本女优一区| 中日韩在线视频| 亚洲自拍偷拍网| 欧美日韩视频免费| 亚洲黄色视屏| 久久精品午夜福利| 免费欧美在线视频| 四季av一区二区三区| 国产美女久久久久| 中文字幕在线播放一区二区| 不卡的av电影| 亚洲图片另类小说| 国产精品久久久久久久久图文区| 午夜激情视频在线播放| 一区二区三区免费观看| 国产免费av一区二区| 日本韩国欧美在线| 一级全黄裸体免费视频| 精品久久久久香蕉网| 污视频网站在线播放| 在线观看欧美www| 麻豆av在线导航| 国内外成人免费激情在线视频| 天天免费亚洲黑人免费| 成人av在线网址| 蜜臀av一区| 亚洲乱码一区二区三区| 欧美精品97| 日本女优爱爱视频| 国产精品18久久久久久久网站| yjizz视频| 中文字幕国产一区二区| 日韩女优一区二区| 色欧美日韩亚洲| 午夜精品久久久久久久91蜜桃| 日韩激情片免费| 日本高清视频在线播放| 欧美极品第一页| 精品123区| 狠狠久久综合婷婷不卡| 久久国产精品亚洲人一区二区三区 | 日韩乱码人妻无码中文字幕久久| 中文字幕在线一区| 日韩精品一区二区av| 欧美日韩一区三区四区| 高h放荡受浪受bl| 日韩在线视频免费观看| 性欧美xxx69hd高清| 亚洲影视九九影院在线观看| 亚洲区小说区图片区qvod| 国产911在线观看| 老司机午夜精品视频| 国产艳妇疯狂做爰视频| 国产精品超碰97尤物18| 日韩视频在线观看一区| 日韩欧美中文一区| 69视频在线| 日韩av免费看| 国产毛片久久久| 日韩不卡一二区| 免费在线观看视频一区| 三级男人添奶爽爽爽视频 | 国产午夜福利片| 欧美福利视频导航| 国产一级在线观看| 91极品女神在线| a看欧美黄色女同性恋| 色撸撸在线观看| 理论片日本一区| eeuss中文字幕| 日韩欧美在线视频免费观看| 日韩有码第一页| 欧美精品xxx| av成人综合| 中文精品无码中文字幕无码专区| 狠狠色综合播放一区二区| 99久久精品久久亚洲精品| 欧美自拍偷拍午夜视频| 久久国产精品高清一区二区三区| 欧美精品电影在线| 视频亚洲一区二区| 欧美另类videosbestsex日本| 精品一区二区三区在线播放视频| 谁有免费的黄色网址| 色屁屁一区二区| 久久国产精品高清一区二区三区| 日本道色综合久久影院| 美女福利一区| 欧美日韩在线中文| 2014亚洲片线观看视频免费| 麻豆成人免费视频| 亚洲欧美激情另类校园| 三上悠亚激情av一区二区三区| 鲁鲁视频www一区二区| 免费一级欧美片在线播放| 色噜噜在线观看| 色婷婷亚洲一区二区三区| 美丽的姑娘在线观看免费动漫| 国产成人亚洲综合91| 成人毛片在线| 激情文学亚洲色图| 亚洲欧美国产77777| 亚洲AV无码精品自拍| 欧美精品久久久久久久免费观看 | 亚洲韩国青草视频| 中文字幕人成乱码在线观看| 奇米影视首页 狠狠色丁香婷婷久久综合| 丝袜亚洲精品中文字幕一区| 亚洲一区 欧美| 日韩视频免费直播| av在线资源| 日本一区视频在线播放| 激情国产一区二区| 欧美成人免费观看视频| 亚洲国产精品va在线看黑人动漫| 英国三级经典在线观看| 亚洲国产婷婷香蕉久久久久久99 | 欧美日韩一本到| 成人在线app| 精品国产综合| 免费成人性网站| 国产一级视频在线观看| 亚洲美女性视频| 日韩av黄色| 成人免费播放器| 中文字幕欧美国产| www.精品视频| 国产成人精品电影| 亚洲国产精品久久久久蝴蝶传媒| 成人免费看片载| 在线欧美日韩国产| 青草在线视频| 青娱乐国产91| 国产成人在线视频网站| 国产成人无码av| 欧美猛交ⅹxxx乱大交视频| 国产丝袜一区| mm131亚洲精品| 亚洲va国产va欧美va观看| 91大神在线网站| 久久精品丝袜高跟鞋| 国产一区二区三区四| 成人av网站在线播放| 欧美激情三级免费| 久久一区二区三区喷水| 一区二区不卡免费视频|