精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐 精華

發布于 2024-8-27 13:14
瀏覽
0收藏

一、背景

模型剪枝、蒸餾是傳統 AI 模型壓縮常用的方案,尤其是模型要用于端側部署的場景,相比模型量化,模型剪枝和蒸餾的代價比較高,而且往往在指標上也沒有特別明顯的優勢,因此真正落地的場景要少得多。當然,也傳言有些模型會蒸餾 OpenAI 的 ChatGPT,不過主要是用其生成高質量數據。本文中,我們介紹 NVIDIA 最近發布的 LLM 剪枝和蒸餾的最佳實踐。

對應的論文為:[2408.11796] LLM Pruning and Distillation in Practice: The Minitron Approach

我們之前也介紹過 NVIDIA 的兩篇相關文章,可以參考:

  • NVIDIA LLM 持續預訓練的最佳實踐
  • NVIDIA 開源 LLM:迷你杯 Nemotron-4 15B & 超大杯 Nemotron-340B

二、摘要

本文中,作者探索了兩種不同的 LLM 剪枝策略:(1)深度剪枝和(2)聯合 Hidden、Attention、MLP 的寬度剪枝,并使用 LM 評估框架 Harness 進行常見基準評估。然后將模型與 NeMo Aligner 對齊,并在 Instruct-tuned 版本中進行測試。使用提出的剪枝和蒸餾將 LLaMA 3.1 8B 和 Mistral NeMo 12B 模型分別壓縮為 4B 和 8B 參數的模型。此外,作者發現,在無法訪問原始數據的情況下,在蒸餾數據集上適當微調 Teacher 模型也有幫助。

PS:基于當前論文的工作還有許多可以嘗試的方案,比如:

  • 論文中寬度剪枝后每個 Transformer Block 層的參數還保持一致,而根據之前的研究(本文中也提到了),模型的最開始 2 層和最后 2 層可能更加的重要,是否可以通過某種方式實現只剪枝中間層,而保留最前 2 層和最后 2 層,效果是否會更好?
  • 如果使用 LLaMA 3.1 70B 作為 Teacher 模型,是否能將 4B 參數量規模的模型精度與 8B 模型對齊?

三、方案

3.1 概覽

如下圖 Figure 1 所示為本文方法的概覽,其包含 3 個階段:

  • Teacher 校正:在目標數據集(127B)上對預訓練模型進行微調,生成校正的 Teacher 模型,以便用于蒸餾。
  • 剪枝:應用剪枝技術壓縮模型,生成 Student 模型。(PS:需要說明的是,非結構化剪枝往往導致模型無法充分發揮 GPU 算力,所以在使用 GPU 推理的場景中相對較少,這里作者主要是使用的結構化剪枝,非常適合 GPU 運算)
  • 蒸餾:使用 Teacher 模型蒸餾 Student 模型,以恢復剪枝損失的模型準確性。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

3.2 剪枝

權重剪枝是一種強大且眾所周知的模型壓縮技術。本文中,作者重點介紹結構化剪枝(并不是為了適配 GPU 稀疏算力的 2:4 稀疏結構化剪枝,其可以參考附錄),也就是從模型中刪除 Block 或 Channel(PS:不是將其置為 0),包括 Neuron、Attention Head、Convolutional Filter 和深度剪枝。如下圖 Figure 2 所示,對于 LLM 而言,首先計算每個層、神經元、Head 和 Embedding 維度的重要性;然后對這些重要性分數進行排序;最后進行剪枝操作,并多次迭代。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

3.2.1 重要性預估

作者采用純粹基于激活的重要性評估策略,該策略使用小型校準數據集,通過前向推理來計算所有軸(深度、神經元、Head,嵌入通道)的靈敏度信息。此外,作者將深度修剪作為一種特殊情況,不會與其他壓縮維度結合使用。

具體來說,作者使用一個 1024 個 Sample 的小型校準數據集,通過分別檢查 MHA、MLP 和 LayerNorm 層產生的激活來計算每個 Head、神經元和 Channel 的重要性。

對于深度剪枝,作者使用 3 個指標評估 Layer 的重要性:

  • LM 驗證損失。
  • Block 重要性(BI)。
  • 下游任務的準確性。

對于基于 Loss 的排序,只需刪除單個或連續的 Block,并計算其對 LM Loss 的影響,這可以作為層的“重要性”或“敏感度”。BI 使用 Layer 或 Layer Blocks 的輸入和輸出之間的余弦距離來計算。作者注意到 BI 和 LM 損失指標高度相關,但并沒有在下游任務上生成最準確的剪枝模型。因此,作者使用 Winogrande 基準來評估 Layer 的重要性。

3.2.2 模型修剪

對于給定的模型,獲得每個軸的重要性排名之后,可以直接對相應的權重矩陣進行修剪。對于神經元和 Head 修剪,分別修剪 MLP 和 MHA 層權重;對于 Embedding Channel,修剪 MLP、MHA 和 LayerNorm 中權重矩陣的 Embedding 維度。

3.2.3 蒸餾訓練

對修剪后的模型進行 ReTraining 以恢復準確性。本文中,作者探索了兩種 ReTraining 策略:

  • 利用 Ground truth 標簽的常規訓練。
  • 使用未修剪模型(Teacher)進行監督知識蒸餾。

蒸餾的過程如下圖 Figure 3 所示,作者只在最后的 Logits 上添加 KL 散度損失。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

3.3 訓練詳情

3.3.1 預訓練

使用預訓練的 LLaMA 3.1 8B([2407.21783] The Llama 3 Herd of Models) 和 Mistral Nemo 12B 模型(Mistral NeMo | Mistral AI | Frontier AI in your hands)。

3.3.2 數據集

所有實驗使用 Nemotron-4 ([2402.16819] Nemotron-4 15B Technical Report 和 [2407.07263] Reuse, Don't Retrain: A Recipe for Continued Pretraining of Language Models)的 Continuous Training(CT) 數據集。

3.3.3 剪枝

作者采用的簡化剪枝方案來自 Minitron 論文([2407.14679] Compact Language Models via Pruning and Knowledge Distillation)中的最佳實踐。具體來說:

  • 寬度剪枝:

分別使用 l2-norm 和 mean 作為跨 Batch 和 Sequence 維度的聚合函數。

執行單次修剪,避免迭代方案。

  • 深度剪枝:
  • 遵循[2403.17887] The Unreasonable Ineffectiveness of the Deeper Layers 中的觀察結果,刪除一個連續 subgroup,該 subgroup 會使 Winogrande 的準確性下降最小。
  • 沒有采用 NAS 搜索的結構。

修剪后的 3 個模型參數如下圖所示,這里也可以看出,寬度剪枝后各層的超參數一致:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

3.3.4 蒸餾

Teacher 校正:直接使用 Mistral Nemo 12B 模型在作者自己的數據集上表現不佳,這是由于 Teacher 模型訓練的原始數據集與蒸餾數據集的分布不一致。為了解決這個問題,作者首先使用數據集中 >= 127B 的 Token 微調 Teacher 模型。如下圖 Figure 4 所示,使用經校正的 Teacher 模型蒸餾,Student 模型在驗證集上的 Loss 明顯低于使用原始 Teacher 模型。因此,作者將這種方案應用到了 Mistral-Nemo 和 LLaMA 3.1 Teacher 模型。當然,微調 Teacher 模型也會導致其在一些指標上有所提升,而在一些指標上有所下降:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

Retrining:根據 Minitron 中的方案,作者選擇僅 Logit 蒸餾(PS:之前很多工作也會蒸餾 Feature Map),最大限度減少 Teacher 和 Student 的 KL 散度損失,并完全忽略 LM 交叉熵損失。蒸餾的超參數如下圖 Table 4 所示,在 32 個 DGX H100 節點上訓練。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

指令微調:為了評估蒸餾模型的指令跟隨能力,作者使用 Nemo-Aligner 和用于 Nemotron-4 340B 的指令微調數據集對 LLaMA 3.1 Minitron 4B 模型進行 SFT,結果如下圖 Table 2 所示:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

四、分析和評估

4.1 分析

4.1.1 寬度和深度剪枝

如下圖 Figure 5 所示為根據寬度和深度剪枝的 LLaMA-3.1-Minitron-4B 的訓練曲線,可以看出,兩者具有相同的參數量,但是寬度剪枝對應的初始損失更小,并且始終優于深度剪枝。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.1.2 剪枝和蒸餾

如下圖 Figure 6 展示了剪枝和蒸餾方法的正交優勢。作者比較了下述 4 種方案,可以看出,與隨機初始化相比,剪枝的起點明顯更好,而基于蒸餾的訓練優于傳統的訓練方法,同時需要訓練的 Token 明顯減少:

  • Random Init + Distillation:隨機權重初始化和蒸餾。
  • Random Pruning + Distillation:隨機剪枝和蒸餾。其中的組件被隨機修剪而不是依賴重要性分數。
  • Pruning + LM Loss:使用本文的修剪方案,但使用基于交叉熵的 LM Loss 訓練。
  • Pruning + Distillation:本文的剪枝和蒸餾方案。LM 驗證損失最低。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.1.3 Teacher 校正

如下圖 Figure 7 所示,作者對比了兩種 Teacher 校正方法,結果表明,Teacher 校正并不影響剪枝的最優性,用校正后的 Teacher 至關重要。Teacher 校正也可以與蒸餾同時進行,以彌合差距:

  • Prune corrected teacher + distill corrected teacher:剪枝和蒸餾校正的 Teacher 模型。
  • Prune original teacher + distill continuously corrected teacher:剪枝原始的 Teacher 模型,并使用不斷校正的 Teacher 模型來蒸餾。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.1.4 深度剪枝度量

在檢查 LM 驗證損失如何隨著連續 Layer Block 的刪除而增加時,如下圖 Figure 8 所示,作者觀察到開始和結尾的層是最重要的。刪除非連續層可能導致更好的 LM 驗證損失。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

但是在評估下游任務時,上述結論不一定成立。如下圖 Figure 9 所示,根據每層重要性刪除 16 層,Winogrande 精度為 0.5,而連續刪除 16-31 層的精度為0.595。在基于蒸餾的 Retraining 中,差距仍然存在,作者選擇了后一種方法。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.2 評估

4.2.1 Base 模型評估

如下圖 Table 1 所示為 Base 模型的評估,與類似大小的模型相比,MN-Minitron8B 在各方面都表現出卓越的準確性,并且訓練 Token 數小 40x(380B vs 15T)。同樣,與 Teacher LLaMA 3.1 8B 模型相比,LLaMA-3.1 4B 模型表現良好,并且使用的訓練 Token 減少 150x(94B vs 15T)。剪枝后的 LLaMA-3.1 4B 也優于之前的 Minitron 4B。此外,從中也可以看出,基于寬度剪枝的變體優于基于深度剪枝的變體。這些結果充分表明了方案的有效性。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

PS:不過從 8B -> 4B 的損失依然比較大,甚至和直接進行 AWQ(W4A16)的量化損失差不多。當然 8B AWQ 的推理效率可能不如 4B,然而一些 W8A8 的方案也能獲得相當的精度,詳情可以參見后文“附錄”的量化部分。此外,量化的成本可能遠低于剪枝+蒸餾。如下圖所示為 neuralmagic/Meta-Llama-3.1-8B-Instruct-quantized.w4a16 · Hugging Face 中使用 W4A16 的 Instruct 模型精度:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.2.2 Instruct 模型評估

如下圖 Table 2 所示為 LLaMA-3.1 Minitron 4B 指令微調的性能。可以看出,其寬度剪枝變體在所有指標上優于原始的 Minitron 4B:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

五、附錄

5.1 模型壓縮

模型壓縮有 4 種常見的方案:量化,剪枝,蒸餾,低秩分解。在 LLM 場景中,模型量化的方案非常多,比如 llm.int8()、AWQ、GPTQ、SmoothQuant 等等,其實現簡單,代價小,是最常見的方案。而其他幾種方案應用相對比較少,它們的區別如下圖 Figure 2 所示,圖片來自 [2308.07633] A Survey on Model Compression for Large Language Models:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

5.2 量化

量化是模型壓縮中最常用的技術,不同的量化方案會針對不同的精度、Tensor 類型等,比如有常見的 KV Cache Only 量化,Weight Only 量化,以及幾種方案的結合,具體如下圖所示:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

不同的量化方案在不同模型上的量化損失也會有所不同,但是大體上來說,壓縮后的 Bit 數越低損失越大。如下圖 Table 1 所示為 [2404.14047] An Empirical Study of LLaMA3 Quantization: From LLMs to MLLMs 中對 LLaMA3-8B 模型的量化評估(都使用 INT 類型,未使用 FP8/FP6/FP4),可以看出:

  • W8A16 的量化損失都比較小,幾乎無損
  • W4A16 和 W8A8 的損失相比 W8A16 會大一些,大部分情況也基本可以接受,但也和量化方法有關,比如,GPTQ 和 QuIP 的 W4A16 相比 AWQ 的損失會更大一些。
  • 更低 Bit 的量化損失會比較大,比如 W3A16 和 W2A16 的精度會明顯下降。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

NVIDIA 的 GPU 從 Hopper 架構開始可以支持 FP8 計算,使用 FP8 后其精度相比 SmoothQuant 的 INT8 以及其他的 W4A16 損失更小,更具有使用價值(數據來自 https://github.com/NVIDIA/TensorRT-LLM/blob/v0.9.0/docs/source/blogs/quantization-in-TRT-LLM.md):

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

那么這些量化方案的速度怎么樣呢,如下圖所示,在 [2404.14294] A Survey on Efficient Inference for Large Language Models 中作者評估了 TensorRT-LLM 和 LMDeploy 推理框架在不同場景的 W4A16 推理性能,使用的 GPU 為 NVIDIA A100,圖中的數據分別為 Prefill/Decoding/End2End 的加速比,可以看出,基本都可以實現 2 倍左右加速,當序列比較長或者 Batch size 比較大時會略低一些,當然兩個框架也各有千秋:

  • TensorRT-LLM 在 Batch size 比較小時優勢更明顯。
  • LMDeploy 在 Batch size 比較大時優勢更明顯。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

如下圖所示為使用 FP8 相比 FP16 可以加速 1.4-1.5 倍,這是比較早的數據,進一步優化后可以到 1.6-1.7 倍:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

如下表所示為 TensorRT-LLM 中作者對不同量化方案的總結,可以看出,如果 GPU 支持 FP8,則使用 FP8 是最理想的選擇,如果允許少量精度損失,則可以進一步使用 INT4-FP8 AWQ 的方案:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

5.3 剪枝

NVIDIA 在 Ampere 架構的 Tensor Core 中引入了稀疏矩陣乘法支持,理論最多可以提升 2 倍性能,實際上可能只有 1.5 倍,而且對稀疏化的方式有要求,如下圖所示,每 4 個 Weight 中需要有 2 個是 0 值,也就是可以剪掉的值:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

基本上稀疏化都會帶來一定的精度損失,如下圖 Table 2 所示,論文 [2310.15929] E-Sparse: Boosting the Large Language Model Inference through Entropy-based N:M Sparsity 中作者評估了 2:4 稀疏化對模型精度的影響,可以看出(PS:論文圖片中的部分數字有誤,比如 13B 模型上 Magnitude 平均精度達到了 57.71,實際平均只有 49.36):

  • 每種稀疏化方法都有一定的精度損失,即使最優的方案損失也比較大。
  • 不同規模的模型上精度損失差異比較大,小模型損失比較大。
  • 13B 模型稀疏化后的精度還不如原始的 7B 模型,那么 13B 模型的稀疏化基本沒有太大的意義。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

在這樣的損失下能帶來什么收益呢?其收益主要體現在速度的提升和顯存的節約,如下圖 Table 5 所示,其矩陣乘法可以加速 20%-30%,而端到端延時只能加速 16% 左右:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

當然,顯存的節約還是比較客觀的,基本可以節約 43% 左右的顯存空間,也許可以通過增加 Batch Size 來增加吞吐:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

六、參考鏈接

  1. https://arxiv.org/abs/2408.11796
  2. https://arxiv.org/abs/2407.21783
  3. https://mistral.ai/news/mistral-nemo/
  4. https://arxiv.org/abs/2402.16819
  5. https://arxiv.org/abs/2407.07263
  6. https://www.arxiv.org/abs/2407.14679
  7. https://arxiv.org/abs/2403.17887
  8. https://arxiv.org/abs/2308.07633
  9. https://arxiv.org/abs/2404.14047
  10. https://arxiv.org/abs/2404.14294
  11. https://arxiv.org/abs/2310.15929

本文轉載自 ??AI閑談??,作者: AI閑談

收藏
回復
舉報
回復
相關推薦
精品亚洲综合| 久久精品国产亚洲AV无码男同| 影视一区二区三区| 国产精品久久久久桃色tv| 成人黄色免费网站在线观看| 唐朝av高清盛宴| 日韩a级大片| 欧美日韩成人综合| 蜜臀精品一区二区| 成黄免费在线| 成人av综合在线| 国产美女扒开尿口久久久| 久久久久99精品成人片毛片| 一呦二呦三呦国产精品| 6080日韩午夜伦伦午夜伦| 俄罗斯av网站| 黄色网址在线免费播放| 久久蜜桃香蕉精品一区二区三区| 91免费视频国产| 成人午夜视频在线播放| 亚洲在线久久| 一区二区三区国产在线观看| 亚洲精品乱码久久久久久蜜桃欧美| 欧美三区四区| 午夜av区久久| 五月天激情图片| 91精品专区| www.在线欧美| 国产高清一区二区三区| 一级特黄aaa大片| 久久精品网址| 国模视频一区二区三区| 免费在线观看a级片| 欧美色婷婷久久99精品红桃| 亚洲黄在线观看| 国产麻豆剧传媒精品国产| 黄页免费欧美| 91久久国产最好的精华液| 久青草视频在线播放| 理论片午午伦夜理片在线播放| 国产亚洲欧美一级| 欧美国产综合视频| 欧美一级特黄aaaaaa| 国产乱码精品一区二区三区av | 日本一区二区三区免费看| 亚洲第一成年人网站| 国内精品久久久久影院色| 国产精品久久久久久中文字| 国产成人无码一区二区在线播放| 1000部精品久久久久久久久| 欧美人成在线视频| 青青青在线视频| 欧美日本一区二区高清播放视频| 久久精品青青大伊人av| 欧美88888| 国产精品99久久| 色99之美女主播在线视频| 粉嫩精品久久99综合一区| 成人精品电影| 久久精品国产成人精品| 熟女少妇a性色生活片毛片| 国产精品88久久久久久| 久久精品视频亚洲| 欧美日韩人妻精品一区二区三区| 欧美精品18| 久久久视频精品| 久久亚洲天堂网| 老司机精品福利视频| 国产精品∨欧美精品v日韩精品| 日韩电影在线观看一区二区| 免费不卡在线观看| 91久久久久久久久久久| www.av网站| 成人黄色av网站在线| 久久精品国产第一区二区三区最新章节 | 91精品啪在线观看国产60岁| 伊人影院在线观看视频| 国产精品久久久网站| 日韩av在线影院| 公侵犯人妻一区二区三区| 日本精品三区| 欧美激情视频网址| 欧美激情黑白配| 蜜桃久久av一区| 亚洲一区二区久久久久久| 六月婷婷综合网| 久久久久久免费| 潘金莲一级淫片aaaaa免费看| 黄色羞羞视频在线观看| 一本大道久久a久久综合婷婷| youjizzxxxx18| 日韩精品视频在线看| 国产午夜精品久久久 | 久久精品国产亚洲夜色av网站| 久久精品久久久久久国产 免费| 国产极品美女高潮无套嗷嗷叫酒店| 鲁大师成人一区二区三区| 成人春色激情网| 神宫寺奈绪一区二区三区| 中文字幕免费不卡| 一卡二卡三卡视频| 青青草国产一区二区三区| 亚洲精品一区二区三区香蕉| 精品国产aaa| 激情视频一区| 国产精品综合不卡av| 黄色成人一级片| **网站欧美大片在线观看| 日韩a∨精品日韩在线观看| 国产91亚洲精品久久久| 日韩电影免费观看中文字幕| 91香蕉一区二区三区在线观看| 亚洲精品社区| 91在线国产电影| 久草在线免费福利资源| 亚洲一区二区三区精品在线| 自拍偷拍一区二区三区四区| 欧美三级自拍| 精品自在线视频| 中文字幕在线网站| 91理论电影在线观看| 久久综合亚洲精品| 人人精品久久| 亚洲无线码在线一区观看| 日韩网红少妇无码视频香港| 国产精品综合一区二区三区| 一本色道久久综合亚洲二区三区 | 亚洲最大视频网| 99久久99久久精品国产片桃花| 日韩av手机在线看| 天天操天天爱天天干| 亚洲激情六月丁香| 中文字幕第22页| 欧美丝袜激情| 国产精品成人一区二区| 欧洲一区av| 精品国产乱码久久久久酒店| 亚洲激情 欧美| 国产综合精品| 99www免费人成精品| 18在线观看的| 日韩视频在线一区二区| caoporn91| 激情综合色播五月| 一区二区高清视频| 国产一区二区三区四区五区3d| 亚洲欧美成人精品| 四虎影院在线免费播放| 久久午夜电影网| 国产肥臀一区二区福利视频| 极品束缚调教一区二区网站| 国产69精品久久久久99| 亚洲国产精品一| 亚洲午夜免费视频| 国产又粗又猛又色| 国产精品一区毛片| 久久手机视频| 欧美性理论片在线观看片免费| 国产亚洲综合久久| 一道本在线视频| 亚洲老司机在线| jjzz黄色片| 一区二区三区四区五区在线| 麻豆久久久9性大片| 二吊插入一穴一区二区| 色偷偷噜噜噜亚洲男人的天堂| 一级黄色片在线播放| 亚洲色欲色欲www| 国产精品19p| 在线视频免费在线观看一区二区| 久久久一本精品99久久精品| 欧美成人ⅴideosxxxxx| 日韩在线视频线视频免费网站| 国产手机av在线| 亚洲午夜一区二区| 尤物视频最新网址| 久久成人av少妇免费| 国内少妇毛片视频| 妖精视频一区二区三区免费观看| 国产精品网站大全| 99在线播放| 国产视频综合在线| 亚洲最大成人在线视频| 一区二区三区欧美视频| 国产福利短视频| 久久精品国产亚洲高清剧情介绍| 中文字幕中文字幕在线中心一区| 国内视频在线精品| 国产精品欧美风情| 女囚岛在线观看| 国产一区二区三区在线观看视频| a级片在线播放| 欧美午夜女人视频在线| 青青操在线播放| 成人黄色网址在线观看| www亚洲成人| 亚洲一级一区| 亚洲自拍偷拍二区| 日韩精品福利一区二区三区| 国产一区视频在线播放| 黄视频网站在线观看| www.久久撸.com| 欧洲一级在线观看| 日韩欧美在线影院| 美女黄页在线观看| 亚洲国产cao| 亚洲精品自拍视频在线观看| 99久久精品国产一区| www.51色.com| 日韩av一区二| 少妇人妻无码专区视频| 国产精品久久观看| 日韩欧美视频第二区| 成人春色在线观看免费网站| 国产精品视频久久久久| 国产在线观看www| 久久国产加勒比精品无码| www亚洲人| 日韩精品在线观看视频| www.av网站| 欧美另类z0zxhd电影| 日本免费在线观看视频| 亚洲va韩国va欧美va精品| 潘金莲一级黄色片| 国产精品无遮挡| 亚洲成人黄色av| 91丝袜美腿高跟国产极品老师 | 九九热这里只有精品免费看| 阿v免费在线观看| 亚洲精品在线视频| 人人妻人人澡人人爽人人欧美一区 | 精人妻无码一区二区三区| 天天操天天干天天综合网| 久久激情免费视频| 亚洲精品视频在线| 午夜国产小视频| 中文字幕在线观看不卡视频| 中文字幕免费高清| 久久久不卡影院| 国产中年熟女高潮大集合| 99久久99久久精品免费看蜜桃| av漫画在线观看| 成人免费高清在线| 亚洲图片综合网| aaa国产一区| 国产网站无遮挡| 99视频有精品| av在线网站观看| 久久综合资源网| 少妇光屁股影院| 国产亚洲福利社区一区| 女女互磨互喷水高潮les呻吟| 久久综合九色欧美综合狠狠| 中文字幕丰满孑伦无码专区| 久久先锋资源网| 丝袜美腿中文字幕| 国产日韩欧美精品电影三级在线| 久久美女免费视频| 国产精品午夜免费| 91麻豆精品成人一区二区| 亚洲精品视频免费看| 久久久久久久99| 精品日本美女福利在线观看| 午夜婷婷在线观看| 欧美在线不卡一区| 国产孕妇孕交大片孕| 日韩视频中午一区| 亚洲日本国产精品| 国产一区二区美女视频| 麻豆传媒在线观看| 久久久久久18| 伊人久久精品一区二区三区| 国产精品免费观看在线| 经典三级久久| 久久av一区二区三区漫画| 精品国产一区二区三区噜噜噜| 一本色道久久综合亚洲精品婷婷| 真实国产乱子伦精品一区二区三区| 国产1区2区3区中文字幕| 99精品福利视频| www.亚洲高清| 国产suv精品一区二区6| 人妻少妇一区二区| 18欧美乱大交hd1984| 国产在线一区视频| 在线视频国内一区二区| av无码精品一区二区三区宅噜噜| 亚洲激情 国产| 在线看的av网站| 久久久噜噜噜久久| 免费高清视频在线一区| 999在线观看免费大全电视剧| 日本中文字幕在线一区| eeuss中文| 午夜一区不卡| 亚洲一区二区中文字幕在线观看| 99久久伊人网影院| 国产欧美小视频| 午夜精品久久久久久久久久久| 中文在线字幕免费观| 精品国产制服丝袜高跟| av网站大全在线观看| 97精品视频在线播放| 精品国产麻豆| 日韩av电影在线观看| 国精品一区二区三区| 欧美一级特黄a| 99国产精品一区| 日韩影院一区二区| 91福利在线观看| 日本免费不卡视频| 久久成人在线视频| 成人国产网站| 鲁片一区二区三区| 亚洲二区视频| 午夜免费福利网站| 国产精品久久久久影院色老大| 毛片视频网站在线观看| 日韩精品一区国产麻豆| 日韩在线资源| 国产精品扒开腿做爽爽爽的视频| 超碰成人免费| 人人妻人人澡人人爽欧美一区| 久久精品国产一区二区三区免费看| 日本黄色网址大全| 亚洲444eee在线观看| 亚洲av无码国产精品永久一区| 日韩中文字幕久久| 91另类视频| 日本在线播放不卡| 亚洲在线播放| 男男做爰猛烈叫床爽爽小说| 亚洲一区二区不卡免费| 国产孕妇孕交大片孕| 日韩视频中文字幕| 国产极品一区| 宅男一区二区三区| 蜜桃精品视频在线| 黄色片在线观看免费| 欧美综合久久久| 国产98在线| 国产精品激情av在线播放| 亚洲最大在线| av五月天在线| 国产精品欧美久久久久无广告 | 在线天堂中文资源最新版| 国产精品国产三级欧美二区| 欧美精品国产| 麻豆免费在线观看视频| 亚洲综合激情小说| 亚洲伦理在线观看| 97超级碰碰碰久久久| 青青一区二区| 无码人妻丰满熟妇区毛片| 久久欧美中文字幕| 日韩欧美国产另类| 色哟哟入口国产精品| 996久久国产精品线观看| 女女同性女同一区二区三区按摩| 国产一区二区三区视频在线播放| 少妇人妻丰满做爰xxx| 日韩欧美色综合网站| 182在线视频观看| 欧美重口乱码一区二区| 蜜臀av性久久久久av蜜臀妖精| 成人无码精品1区2区3区免费看| 51精品秘密在线观看| 日本高清成人vr专区| 好看的日韩精品视频在线| 久久久精品网| 天堂网中文在线观看| 精品国产一区二区三区av性色 | av大全在线免费看| 成人免费网视频| 激情偷拍久久| 精品人妻中文无码av在线| 欧美情侣在线播放| 黄页网站在线| 日产精品久久久一区二区| 精品一区二区三区视频在线观看 | 欧美日韩免费观看一区=区三区| 污片免费在线观看| 欧美网站大全在线观看| av在线播放国产| 久久国产精品精品国产色婷婷| 免费精品视频最新在线| 国产精品二区一区二区aⅴ| 伊人久久男人天堂| 亚洲精品一区二区三区中文字幕| 午夜精品久久久内射近拍高清| 最新热久久免费视频| 五月婷中文字幕| 亚洲va欧美va国产综合久久| 99riav1国产精品视频| 萌白酱视频在线| 日韩av在线一区二区| 精品中文视频| 天天爽天天爽夜夜爽| 亚洲一区二区三区视频在线播放| av电影在线网|