精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型 LLM.int8() 量化技術原理與代碼實現

人工智能
本文將深入探討量化的基本原理,介紹LLM.int8()大模型量化方法,并通過具體的代碼實戰來展示如何實現模型的量化,以便在各種設備上高效運行這些模型。

大語言模型LLM因其龐大的參數規模,往往難以在消費級硬件上直接運行。這些模型的參數量可能達到數十億級別(主要是權重),這些參數不僅存儲成本高,推理階段的計算量也很大。通常需要顯存較大的GPU來加速推理過程。

因此,越來越多的研究開始關注如何縮小模型,比如改進訓練方法或引入適配器模塊。其中一項關鍵技術便是量化(quantization)。

本文將深入探討量化的基本原理,介紹LLM.int8()大模型量化方法,并通過具體的代碼實戰來展示如何實現模型的量化,以便在各種設備上高效運行這些模型。

基礎知識

1.數值表示

模型推理過程中,激活值是輸入和權重之積,因此權重數量越多,激活值也會越大。

因此,我們需要盡可能高效表示數十億個值,從而盡可能減少存儲參數所需的空間。

大語言模型中參數數值,通常被表示為浮點數。浮點數(floating-point numbers,簡稱 floats)是一種用于表示帶有小數點的正數或負數的數據類型。

在計算機科學中,浮點數通常遵循IEEE-754標準進行存儲。這一標準定義了浮點數的結構,包括符號位、指數位和尾數位三個組成部分。其中,

  • 符號位(Sign Bit):決定了浮點數的正負。
  • 指數位(Exponent Bits):表示浮點數的指數部分。
  • 尾數位(Fraction Bits):表示小數點后的數值部分。

三部分結合起來,即可根據一組bit值計算出所表示的數值。使用的位數越多,表示的數值值通常越精確。

  • 半精度浮點數(Half-Precision Floats, FP16):使用16位來表示一個浮點數,其中包括1位符號位、5位指數位和10位尾數位。

  • 單精度浮點數(Single-Precision Floats, FP32):使用32位來表示一個浮點數,其中包括1位符號位、8位指數位和23位尾數位。

2.動態范圍與精度

動態范圍(Dynamic Range):指的是可表示的最大值與最小值之間的范圍。可用的位數越多,動態范圍也就越廣。

精度(Precision):指兩個相鄰可表示值之間的差距。可用的位數越多,精度也就越高。

對于給定的浮點數表示形式,我們可以計算出存儲特定數值所需的內存大小。例如,對于32位浮點數(FP32),每個數值占用4字節(8位/字節),而對于16位浮點數(FP16),每個數值占用2字節。

假設模型有N個參數,每個參數使用B位表示,則模型的內存需求(以字節為單位)可以用以下公式計算:

在實際應用中,除了模型本身的參數外,推理過程中的內存/顯存需求還受到其他因素的影響,例如:

  • 上下文大小:對于序列模型而言,處理的序列長度會影響內存需求。
  • 模型架構:不同的模型架構可能會有不同的內存使用模式。

對于一個包含700億參數的模型,如果使用32位浮點數表示,所需的內存為:

如果改為使用16位浮點數表示,所需的內存將減少一半:

由此可見,將模型參數的表示位數最小化,即量化(不僅是推理,還有訓練過程)能夠顯著減少內存需求,但這也意味著精度的降低,可能會對模型的準確性產生負面影響。

「因此,量化技術的目標是在保持模型準確性的同時盡可能減少表示數值所需的位數。」

二、什么是模型量化?

所謂模型量化,其實就是將模型參數的精度從較高位寬(如FP16、FP32、BF16,一般是浮點運算)轉換為較低位寬(如Int8、Int4,一般是整數運算),從而降低模型存儲大小及顯存占用、提升推理性能。

三、量化分類

模型量化可從以下幾方面分類:

(1) 根據量化時機

  • 訓練時量化(Quantization-Aware Training, QAT),需要模型重新訓練。
  • 訓練后量化(Post Training Quantization,PTQ),可以量化預訓練好的模型。不需要重新訓練。

(2) 根據映射函數是否為線性

  • 線性量化
  • 非線性量化

(3) 根據量化的粒度(共享量化參數的范圍)

  • Tensor粒度(per-tensor):整個矩陣一起量化。
  • Token粒度(per-token)和Channel粒度(per-channel):每行/每列單獨量化,X的每一行代表一個Token,W的每一列代表一個Channel。
  • Group粒度(per-group):兩者的折衷,多行/多列分為一組,每組分別量化。

(4) 根據量化范圍

  • 只量化權重(Weight Only):只量化模型權重,推理時是INT乘FLOAT。
  • 權重與激活同時量化(Weight and Activation):這里的激活實際是就是每一層的輸入,對于矩陣乘法Y = WX,同時量化W和X,推理時是INT乘INT。

目前Weight and Activation可以做到Int8(或者叫W8A8,Weight 8bit Activition 8bit)與FP16水平相當,而Weight Only方向INT4(W4A16)已經可以做到與FP16相差無幾,INT3(W3A16)也很接近了。實際上,這兩個方向并不是互斥的,我們完全可以同時應用兩種方式,只是工程比較復雜,暫時還沒有成熟的框架。

?

(5) 根據存儲一個權重元素所需的位數

  • 8bit量化
  • 4bit量化
  • 2bit量化
  • 1bit量化

四、量化方案

1.LLM.int8()

(1) LLM.int8()量化算法

INT8量化的基本思想是將浮點數通過縮放因子scale映射到范圍在[-128, 127]內的8位整數表示

量化公式如下:

其中:

  • Xq表示量化后的整數。
  • Xf表示量化前的浮點數。
  • scale表示縮放因子。
  • Round 表示四舍五入為整數。
  • Clip表示將結果截斷到[-128, 127]范圍內。

縮放因子scale的計算公式:

其中,表示浮點數最大絕對值。

反量化的過程為:

如下圖所示為通過該方式實現量化-反量化的示例。假設使用absmax quantization技術對向量[1.2, -0.5, -4.3, 1.2, -3.1, 0.8, 2.4, 5.4]進行量化。首先找到絕對值最大值5.4。Int8的取值范圍是[-127, 127],所以量化因子為127/5.4=23.5。因此向量會被量化成[28, -12, -101, 28, -73, 19, 56, 127]。

為了還原原始值,可以使用全精度的int8數值除以量化因子23.5。但是它們在量化過程中是四舍五入取整過的,會損失一些精度。

為了不區分int8格式的正負符號,我們需要減去最小值,然后再使用最大值作為量化因子。具體實現如下:

對于給定的向量或矩陣,首先找到最小值,并減去最小值:

找到X'的絕對最大值,使用絕對最大值作為量化因子:

這類似于zero-point量化,但不同之處在于,zero-point量化會確保全精度數值0仍然轉換為整數0,從而在數值0處保證不會有量化損失。

LLM.int8()算法的具體步驟:

  • 從矩陣隱藏層中,以列為單位,抽取值大于確定閾值的異常值(outliers)。
  • 分別通過FP16精度對outliers的部分做矩陣乘法,通過量化int8精度對其他的做矩陣乘法。
  • 將量化的部分恢復成FP16,然后將兩部分合在一起。

「為什么要單獨抽出異常值(outliers)?」

在大規模模型中,數值超出全局閾值范圍的被稱為outliers。8位精度的數據是壓縮的,因此量化一個含有幾個大數值的向量會導致大量錯誤的結果。例如,如果一個向量中有幾個數值遠大于其他數值,那么量化這些數值會導致其他數值被壓縮到零,從而產生較大的誤差。

Transformer 架構的模型會將所有的內置特征連接組合在一起。因此,這些量化錯誤會在多層網絡的傳播中逐步混合在一起,導致整體性能的下降。

為了解決這些問題,混合精度量化技術應運而生。這種技術將大數值的特征拆分出來,進行更有效的量化和混合精度計算。

(2) LLM.int8()量化實現

如下是在Transformers庫中集成nuances庫,利用bitsandbytes庫提供的8位量化功能,將模型轉換為int8精度。

第一步:導入庫

import torch
import torch.nn as nn
import bitsandbytes as bnb
from bnb.nn import Linear8bitLt

在自己的數據集和任務上訓練模型了,最后保存模型定義自己的模型。可以從任何精度(FP16,BF16,FP32)轉換至int8。但模型的輸入需要是FP16精度。所以下面為FP16精度的模型。

fp16_model = nn.Sequential(
    nn.Linear(64, 64),
    nn.Linear(64, 64)
)

第三步:在自己的數據集和任務上訓練模型,最后保存模型

# 訓練模型
[... train the model ...]

# 保存模型
torch.save(fp16_model.state_dict(), "model.pt")

第四步:定義一個int8精度的模型。

int8_model = nn.Sequential(
    Linear8bitLt(64, 64, has_fp16_weights=False),
    Linear8bitLt(64, 64, has_fp16_weights=False)
)

這里加入has_fp16_weights的參數是很重要的。因為它默認會被設置為True,這意味著它會被作為Int8/FP16混合精度訓練。然而,我們關心的是use has_fp16_weights=False時的計算內存占用。

第五步:加載模型并量化至int8精度。

int8_model.load_state_dict(torch.load("model.pt"))
int8_model = int8_model.to(0)  # 量化

int8_model = int8_model.to(0) 將模型存入顯卡,會執行量化。

如果在其之前打印int8_model[0]的權重,可得到FP16的精度值。

print("Before quantization:")
print(int8_model[0].weight)


Parameter containing:
tensor([[ 0.0031, -0.0438, 0.0494, ..., -0.0046, -0.0410, 0.0436],
        [-0.1013, 0.0394, 0.0787, ..., 0.0986, 0.0595, 0.0162],
        [-0.0859, -0.1227, -0.1209, ..., 0.1158, 0.0186, -0.0530],
        ...,
        [ 0.0804, 0.0725, 0.0638, ..., -0.0487, -0.0524, -0.1076],
        [-0.0200, -0.0406, 0.0663, ..., 0.0123, 0.0551, -0.0121],
        [-0.0041, 0.0865, -0.0013, ..., -0.0427, -0.0764, 0.1189]],
 dtype=torch.float16)

如果在其之后打印int8_model[0]的權重,可得到INT8的精度值。

print("After quantization:")
print(int8_model[0].weight)
Parameter containing:
tensor([[ 3, -47, 54, ..., -5, -44, 47],
        [-104, 40, 81, ..., 101, 61, 17],
        [ -89, -127, -125, ..., 120, 19, -55],
        ...,
        [ 82, 74, 65, ..., -49, -53, -109],
        [ -21, -42, 68, ..., 13, 57, -12],
        [ -4, 88, -1, ..., -43, -78, 121]],
 device='cuda:0', dtype=torch.int8, requires_grad=True)

由此可見,權重值被壓縮了,分布在[-127,127]之間。

如需恢復FP16精度,則:

print("Restored FP16 precision:")
print((int8_model[0].weight.CB * int8_model[0].weight.SCB) / 127)

然后得到:

tensor([[ 0.0028, -0.0459, 0.0522, ..., -0.0049, -0.0428, 0.0462],
        [-0.0960, 0.0391, 0.0782, ..., 0.0994, 0.0593, 0.0167],
        [-0.0822, -0.1240, -0.1207, ..., 0.1181, 0.0185, -0.0541],
        ..., 
        [ 0.0757, 0.0723, 0.0628, ..., -0.0482, -0.0516, -0.1072],
        [-0.0194, -0.0410, 0.0657, ..., 0.0128, 0.0554, -0.0118], 
        [-0.0037, 0.0859, -0.0010, ..., -0.0423, -0.0759, 0.1190]],
 device='cuda:0')

這和原始的FP16精度權重非常接近。

第六步:在同一個顯卡上用FP16精度計算模型。

input_ = torch.randn(64, dtype=torch.float16)
hidden_states = int8_model(input_.to(torch.device('cuda', 0)))

第七步:集成到Transformer庫。

使用accelerate庫初始化模型。當處理大型模型時,accelerate庫提供了很多便利,特別是在內存管理和模型初始化方面。init_empty_weights方法可以幫助任何模型在初始化時不占用任何內存。

import torch.nn as nn
from accelerate import init_empty_weights
with init_empty_weights():
    model = nn.Sequential([nn.Linear(100000, 100000) for _ in range(1000)]) # This will take ~0 RAM!

修改.from_pretrained。當調用函數.from_pretrained時,會內置將所有參數調用torch.nn.Parameter,這不符合功能模塊Linear8bitLt。因此,將Actor生成的

module._parameters[name] = nn.Parameter(module._parameters[name].to(torch.device("meta")))

修改為:

param_cls = type(module._parameters[name])
kwargs = module._parameters[name].__dict__
module._parameters[name] = param_cls(module._parameters[name].to(torch.device("meta")), **kwargs)

替換 nn.Linear 層為 Linear8bitLt 層

def replace_8bit_linear(model, threshold=6.0, module_to_not_convert="lm_head"):
    for name, module in model.named_children():
        if len(list(module.children())) > 0:
            replace_8bit_linear(module, threshold, module_to_not_convert)

        if isinstance(module, nn.Linear) and name != module_to_not_convert:
            with init_empty_weights():
                model._modules[name] = bnb.nn.Linear8bitLt(
                    module.in_features,
                    module.out_features,
                    module.bias is not None,
                    # 參數has_fp16_weights需要被設置為False,從而直接加載模型權重為int8精度。
                    has_fp16_weights=False,
                    threshold=threshold
                )
    return model
model = replace_8bit_linear(model, threshold=6.0)
責任編輯:趙寧寧 來源: 小喵學AI
相關推薦

2024-08-19 02:35:00

模型量化深度學習

2024-09-13 16:47:06

模型量化AI

2025-11-17 08:00:00

LLMAWQGPTQ

2024-04-07 14:28:48

邊緣計算LLM人工智能

2025-03-27 02:50:00

2025-03-04 01:00:00

LLM架構數據訓練

2023-10-06 20:30:33

大模型LLMtoken

2024-09-02 12:30:30

2024-06-18 14:01:17

2024-04-02 07:25:19

大語言模型青少年編程NLG

2024-07-09 11:01:24

2024-07-31 14:08:00

2025-10-15 01:15:00

模型壓縮剪枝蒸餾

2024-04-25 14:40:47

2025-05-29 08:30:00

LLM大語言模型AI

2024-07-31 08:14:17

2015-09-25 09:56:37

負載均衡

2025-08-25 07:00:00

大語言模型LLM人工智能

2024-10-22 09:17:07

2017-05-16 15:33:42

Python網絡爬蟲核心技術框架
點贊
收藏

51CTO技術棧公眾號

国产亚洲一区在线播放| 国产一区二区三区在线观看视频| 黑人巨茎大战欧美白妇| 韩国av永久免费| 国产日韩欧美高清免费| 这里只有精品丝袜| 男人女人拔萝卜视频| 超碰国产一区| 亚洲视频一二区| 成人在线啊v| 成人免费看视频| 日本久久久久久久| 一区二区三区四区五区| 欧美精品中文字幕亚洲专区| 精品视频在线免费观看| 欧美亚洲日本一区二区三区| 视频一区二区三区不卡| av综合在线播放| 国产精品自拍偷拍视频| 日韩精品视频免费看| 日韩精品1区| 亚洲第一综合天堂另类专| 国产三级日本三级在线播放| 任你弄在线视频免费观看| 国产三区在线成人av| 国产亚洲福利社区| 国产免费高清视频| 日韩一区精品视频| 97视频在线观看免费| 粉嫩精品久久99综合一区| 久久精品凹凸全集| 欧美一区二区三区视频在线 | 国产精品久久久久无码av| 日韩国产在线播放| 日本wwww色| 欧美亚洲色综久久精品国产| 六月丁香综合网| 久草中文综合在线| 国产精品com| 91精品国产综合久久久蜜臀九色| 国产精品99免费看| 另类图片亚洲另类| 国产wwwwxxxx| 成人激情视频| 亚洲人成电影网站色| 欧美大片免费播放器| 国产欧美三级电影| 日韩免费看网站| 四川一级毛毛片| 欧美9999| 欧美v日韩v国产v| 日本特黄在线观看| 国产欧美日韩电影| 制服丝袜av成人在线看| 911福利视频| 99er精品视频| 91精品久久久久久蜜臀| 欧美xxxxxbbbbb| 日韩精品亚洲专区在线观看| 日韩一区二区电影在线| 老司机av网站| 爱高潮www亚洲精品| 精品国产a毛片| 日韩精品一区二区三区高清免费| 精品三级av在线导航| 亚洲国产成人在线播放| 欧美xxxxx精品| 日韩在线麻豆| 中日韩美女免费视频网站在线观看| av电影在线不卡| 日韩综合网站| 欧美理论电影在线播放| 国产一级片播放| 亚洲欧美卡通另类91av| 日韩免费观看av| 亚洲无码久久久久久久| 国产激情视频一区二区在线观看 | 国产97免费视| 中文字幕在线一| 国产精品伊人色| 精品国产福利| av电影在线播放高清免费观看| 国产精品久久久久四虎| 777久久精品一区二区三区无码 | 精品av中文字幕在线毛片 | 国产一区二区三区久久久| 99在线看视频| 欧美美乳在线| 亚洲欧美视频一区| 131美女爱做视频| 成人不卡视频| 欧美成人福利视频| 久久精品国产亚洲AV熟女| 欧美aaaa视频| 97精品国产97久久久久久免费 | 日韩电影视频免费| 日本一卡二卡在线播放| 欧美成人有码| 国产91在线播放| 国产99999| 91香蕉国产在线观看软件| 在线天堂一区av电影| 2021天堂中文幕一二区在线观| 日韩欧美在线一区| 永久看看免费大片| 国产探花在线精品一区二区| 欧美老少做受xxxx高潮| 中文字幕免费高清网站| 国产福利一区在线| 色噜噜一区二区| 黄色激情在线播放| 欧美男人的天堂一二区| theav精尽人亡av| 国产精品hd| 国产日韩欧美一二三区| 日韩av免费观影| 亚洲一区二区三区美女| 日韩欧美国产片| 伊人春色精品| 午夜精品福利在线观看| 国产av无码专区亚洲av| 国产欧美一区二区精品忘忧草| 国产一区二区四区| 祥仔av免费一区二区三区四区| 精品亚洲国产视频| 精品无码人妻一区二区三| 久久99精品一区二区三区| 日本一区二区三区精品视频| 麻豆免费在线| 亚洲电影天堂av | 自拍偷拍欧美| 国产在线视频91| jizz在线观看| 日本韩国精品在线| 亚洲国产果冻传媒av在线观看| 欧美日韩国产在线一区| 91九色单男在线观看| 国产精品自产拍高潮在线观看| 久久人人爽人人爽人人片av免费| 成人美女视频在线看| 欧美在线观看视频免费| 国产一区二区三区免费观看在线| 日韩视频在线免费| 国产一区二区三区在线观看| 国产精品婷婷午夜在线观看| youjizzxxxx18| 成人av二区| 国产精品爽爽爽| 91短视频版在线观看www免费| 色欧美片视频在线观看| 自拍偷拍亚洲天堂| 视频一区视频二区中文| 日本一区二区三区www| 69堂精品视频在线播放| 国产亚洲精品va在线观看| 日日夜夜操视频| 久久精品夜夜夜夜久久| 手机在线看福利| 久久理论电影| 成人性生交大片免费看视频直播 | 亚洲一区二区在线视频| 挪威xxxx性hd极品| 夜夜嗨av一区二区三区网站四季av| 国产伦精品一区二区三区视频孕妇 | 精品久久在线观看| 亚洲国产wwwccc36天堂| 中文文字幕文字幕高清| 久久福利影视| 色噜噜一区二区| 精品中文字幕一区二区三区四区| 欧美日韩第一页| 亚州av在线播放| 欧美亚洲综合久久| 日本a级片视频| 成人av在线看| 天天干在线影院| 欧美freesex交免费视频| 国产尤物91| julia一区二区三区中文字幕| 色99之美女主播在线视频| 成人av手机在线| 欧美日韩在线视频观看| 亚洲一级黄色录像| 国产成人精品在线看| 欧美网站免费观看| 色综合咪咪久久网| 国产精品免费在线| www.久久.com| 欧美国产日产韩国视频| 日本aaa在线观看| 51精品国自产在线| 99热只有这里有精品| 国产精品久久网站| 精品无码人妻少妇久久久久久| 日韩国产精品91| 国产精品自拍合集| 日韩综合网站| 久久综合九色综合久99| 国产精品久久久久久久久久久久久久久| 欧美福利小视频| 第一福利在线| 亚洲国产欧美一区二区丝袜黑人| 中文亚洲av片在线观看| 亚洲aaa精品| 久久99久久99精品免费看小说| 久久综合狠狠综合久久综合88| 中文av字幕在线观看| 久久不射网站| 女人帮男人橹视频播放| 国产精品麻豆久久| 欧美精品亚洲精品| 国产图片一区| 91九色国产视频| 国产亚洲精品精品国产亚洲综合| 97高清免费视频| 性欧美1819sex性高清大胸| 亚洲无av在线中文字幕| 视频一区二区免费| 日韩一区二区免费电影| 亚洲无码精品国产| 91极品视觉盛宴| 青青草av在线播放| 一区二区三区中文字幕电影 | 亚洲国产日韩在线一区模特| 成人无码精品1区2区3区免费看| 久久综合九色综合97婷婷| 极品白嫩的小少妇| 国模娜娜一区二区三区| 五月婷婷激情久久| 久久久久久黄| 波多野结衣50连登视频| 亚洲人成久久| aa视频在线播放| 亚洲视频日本| 日韩精品综合在线| 黄色工厂这里只有精品| 99精品视频网站| 婷婷丁香综合| 日本黄色播放器| 999精品视频| 四虎影院一区二区| 一区二区三区四区在线观看国产日韩 | 国产成人午夜视频网址| 91久久国产综合久久91猫猫| 91成人在线观看国产| 在线看的毛片| 日本一欧美一欧美一亚洲视频| 丝袜老师在线| 国产成人精品视频| 成人黄色视屏网站| 国产日本欧美一区二区三区| 青娱乐极品盛宴一区二区| 国产在线拍偷自揄拍精品| 亚洲午夜国产成人| 亚洲字幕一区二区| 伊人久久影院| 国产一区二区三区四区hd| 日韩电影在线观看完整免费观看| 久久久影院一区二区三区| 日韩在线影视| 四虎影院一区二区三区| 91高清一区| 精品久久久久久无码中文野结衣| 99视频一区| 国产第一页视频| 另类小说综合欧美亚洲| 男女污污视频网站| 国产成人精品免费| 日韩网站在线播放| 国产精品丝袜久久久久久app| 99鲁鲁精品一区二区三区| 亚洲一区中文日韩| 黄色一级视频免费看| 欧美日韩一区二区电影| 精品久久久久中文慕人妻| 日韩国产激情在线| av在线电影院| 欧美精品在线网站| 午夜av不卡| 成人乱人伦精品视频在线观看| 91精品国产自产精品男人的天堂| 免费在线观看一区二区| 色婷婷亚洲mv天堂mv在影片| 国产www免费| 秋霞影院一区二区| 日韩久久久久久久久久久| 91在线免费视频观看| 人妻互换一区二区激情偷拍| 一级中文字幕一区二区| 欧美a视频在线观看| 91精品久久久久久蜜臀| 欧美色图另类| 九九热精品视频在线播放| www.成人影院| 444亚洲人体| 欧美艳星介绍134位艳星| 国产乱子伦精品视频| 日韩av一区二区在线影视| 久久久久久久穴| 国产精品看片你懂得| 黄色片网站在线免费观看| 欧美一区二区三区四区久久| 户外极限露出调教在线视频| 欧美激情欧美激情在线五月| 国产成人亚洲一区二区三区| 久久国产精品精品国产色婷婷| 99久久综合| 欧美视频第三页| 成人午夜av电影| 国产极品美女在线| 91久久精品日日躁夜夜躁欧美| 黄色av网站免费在线观看| 日韩有码在线视频| 大胆人体一区二区| 国产精品福利视频| 91精品一区二区三区综合在线爱| 欧美一级片中文字幕| caoporm超碰国产精品| 免费一级肉体全黄毛片| 欧美日韩成人高清| 国产一区电影| 日韩av电影手机在线| 牛牛影视一区二区三区免费看| 欧美少妇在线观看| 久久se这里有精品| 夜夜春很很躁夜夜躁| 日韩欧美国产黄色| 亚州男人的天堂| 欧美极品美女电影一区| 久久久久毛片免费观看| 一区二区三区四区国产| 免费成人av资源网| 久久久久久久毛片| 日本韩国欧美三级| 黄网站在线观看| 日本一区二区在线免费播放| 欧美天堂社区| 波多野结衣家庭教师在线| 不卡大黄网站免费看| 国产精品999久久久| 欧美xingq一区二区| 成人性生交大片免费看网站| 成人黄色在线免费观看| 欧美久久成人| 无码人妻一区二区三区在线| 亚洲va在线va天堂| 五月激情婷婷网| 51午夜精品视频| 亚洲宅男一区| 日本美女高潮视频| 国产精品网曝门| 国产日本精品视频| 欧美大片大片在线播放| 国产欧美三级电影| 久草精品在线播放| 国产精品久久久久婷婷| 国产情侣av在线| 国模精品视频一区二区| 日韩精选在线| 手机在线免费观看毛片| 中文字幕色av一区二区三区| 99精品国产99久久久久久97| 欧美日韩国产成人在线| 美日韩黄色大片| 日韩av在线综合| 一区视频在线播放| 草草视频在线播放| 日本成人在线视频网址| 日韩欧美高清在线播放| 久久久久亚洲av无码麻豆| 亚洲高清久久久| 国产尤物视频在线| 91久久在线观看| 亚洲精品裸体| 精品人体无码一区二区三区| 日韩欧美在线不卡| 97超碰在线免费| 视频在线观看成人| 国产99一区视频免费| 日韩精品久久久久久免费| 日韩一中文字幕| 国语一区二区三区| 91福利国产成人精品播放| 伊人性伊人情综合网| 色鬼7777久久| 91欧美精品午夜性色福利在线 | 欧美日韩国产一区二区三区不卡| 欧美三级午夜理伦三级富婆| 亚洲午夜私人影院| 国产69精品久久app免费版| 114国产精品久久免费观看| 亚洲中字黄色| 丝袜 亚洲 另类 欧美 重口 | 亚洲AV无码成人精品区明星换面| 91精品国产美女浴室洗澡无遮挡| 欧美办公室脚交xxxx| 午夜在线视频免费观看| 久久免费看少妇高潮| 国产熟女一区二区三区五月婷| 欧美在线亚洲在线|