精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

調LLaMA類模型沒那么難,LoRA將模型微調縮減到幾小時

人工智能 新聞
LoRA 微調方法,隨著大模型的出現而走紅。

最近幾個月,ChatGPT 等一系列大語言模型(LLM)相繼出現,隨之而來的是算力緊缺日益嚴重。雖然人人都想打造專屬于自己的大模型,但是能負擔得起上億參數模型訓練的機構卻寥寥無幾。

在快速發展的人工智能領域,以高效和有效的方式使用大型語言模型正變得越來越重要。

LoRA(Low-Rank Adaption,低秩自適應) 作為微調 LLMs 一種比較出圈的技術,其額外引入了可訓練的低秩分解矩陣,同時固定住預訓練權重,從而大大減少了下游任務的可訓練參數數量。

本文中,來自 Lightning AI 首席人工智能教育家 Sebastian Raschka 將帶你了解如何以高效的方式用 LoRA 來微調 LLM。下面是全文內容。

為什么要進行微調?

預訓練大語言模型通常被稱為基礎模型,這樣稱呼的原因是:大語言模型在各種任務中表現良好,可以將它們用作對目標任務進行微調的基礎。正如 Sebastian Raschka 在上一篇博文《Understanding Parameter-Efficient Finetuning of Large Language Models: From Prefix Tuning to LLaMA-Adapters》中所討論的,微調能夠使模型適應目標域和目標任務。盡管如此,大模型在計算上的成本可能非常昂貴 —— 模型越大,更新其網絡層的成本就越高。

如果不想將網絡中所有的層都進行更新,可以使用諸如前綴微調和適配器之類的高效調參方法。如今,有一種更流行的微調技術:Hu 等人提出的低秩自適應(LoRA)。

什么是 LoRA?它是如何工作的?它與其他流行的微調方法相比如何?本文將回答所有這些問題。

圖片

提高權重更新效率

論文《 LoRA: Low-Rank Adaptation of Large Language Models》提出將權重變化 ΔW 分解為秩較低的表示。(LoRA 不會直接分解矩陣,而是通過反向傳播來學習分解的矩陣)。

在仔細研究 LoRA 之前,我們先簡要解釋一下規則微調期間的訓練程序。首先是權重變化 ΔW。假設 W 表示給定神經網絡層中的權重矩陣。然后,使用常規反向傳播,我們可以獲得權重更新 ΔW,它通常被計算為損失乘以學習率的負梯:

圖片

然后,得到 ΔW 后,原始權重按如下公式更新:W'=W+ΔW。如下圖所示(為了簡單起見,省略了偏置矢量)。

或者,我們可以保持權重更新矩陣分離,并按如下公式計算輸出:h=Wx+ΔWx:

圖片

其中 x 表示輸入,如下所示:

圖片

當在神經網絡中訓練全連接(即 dense)層時,如上所示,權重矩陣通常具有全秩,這意味著矩陣不具有任何線性相關(即冗余)的行或列。相比之下,與全秩相比,低秩意味著矩陣具有冗余的行或列。

因此,盡管預訓練模型的權重是滿秩矩陣,但根據 Aghajanyan 等人的說法,LoRA 的作者指出預訓練的大型語言模型在適應新任務時具有較低的內在維度。

低內在維度意味著數據可以由低維度空間有效地表示或近似,同時保留其大部分基本信息或結構。換句話說,這意味著可以將適應任務的新權重矩陣分解為低維(較小)矩陣,而不會丟失太多重要信息。

例如,假設 ΔW 是 A×B 維權重矩陣的權重更新矩陣,這個權重更新矩陣可以分解為兩個較小的矩陣:ΔW=W_A W_B,其中 W_A 是 A×r 維矩陣,W_B 是 r×B 維矩陣。在這里,我們保持原始權重 W 凍結,并且只訓練新的矩陣 W_A 和 W_B。如下圖所示。

圖片

選擇秩

上圖中的 r 是超參數,指定用于自適應的低秩矩陣的秩。r 越小,低秩矩陣越簡單,在自適應過程中需要學習的參數越少,訓練就更快,計算需求會相應的減少。然而,r 變小的弊端是,低秩矩陣捕獲任務特定信息的能力降低。這可能導致較低的自適應質量,并且與較高的 r 相比,模型在新任務上可能表現不佳。總之,在 LoRA 中確定 r 的取值,需要在模型復雜性、自適應能力和擬合不足或擬合過度的風險之間進行權衡。因此,重要的是用不同的 r 值進行實驗,以找到正確的平衡,從而在新任務中滿足所需的性能。

 LoRA 實戰

LoRA 的使用很直接,可以將其視為 LLM 中全連接層的前向傳遞修正版。偽代碼如下所示:

圖片

在上面的偽代碼中,alpha 是一個縮放因子,用于調整組合結果的大小(原始模型輸出加上低秩自適應)。這平衡了預訓練模型的知識和新的任務特定適應 —— 默認情況下,alpha 通常設置為 1。還要注意,當 W_A 被初始化為小的隨機權重時,W_B 被初始化為 0,從而使得

圖片

,這意味著需要從原始權重開始訓練。

參數效率

接下來說一說最棘手的問題:如果引入新的權重矩陣,參數如何才能有效?新的矩陣 W_A 和 W_B 可以非常小。例如,假設 A=100,B=500,那么 ΔW 的大小為 100×500=50000。如果將其分解為兩個較小的矩陣,一個 100×5 維矩陣 W_A 和一個 5×500 維矩陣 W_B。這兩個矩陣總共只有 5×100+5×500=3000 個參數。

 減少推理開銷

在實踐中,如果在如上所示的訓練后保持原始權重 W 以及矩陣 W_A 和 W_B 處于分離狀態,推理過程中就會額外產生效率損失,因為引入了額外的計算步驟。相反可以在訓練后通過 W’=W+W_A?W_B 更新權重,這類似于前面提到的 W’=W+ΔW。

然而,保持權重矩陣 W_A 和 W_B 分離也可能有些優勢。例如,假設希望保留預訓練的模型作為各種客戶的基礎模型,并且希望從基礎模型開始為每個客戶創建一個微調的 LLM。在這種情況下,就不需要為每個客戶存儲完整的權重矩陣 W’。不然存儲模型的所有權重 W’=W+W_A W_B 對于 LLM 來說可能非常大,因為 LLM 通常具有數十億到數萬億的權重參數。因此,可以保留原始模型 W,只需要存儲新的輕量級矩陣 W_A 和 W_B。

用具體的數字來說明的話,一個完整的 7B LLaMA checkpoint 需要 23 GB 的存儲容量,而選擇 r=8 的秩,則 LoRA 權重可以小到 8 MB。

 實踐效果

LoRA 在實踐中有多好,與完全微調和其他參數有效方法相比如何?根據 LoRA 的論文,在幾個特定任務的基準測試中,使用 LoRA 的模型的建模性能略好于使用 Adapters、prompt tuning 或 prefix tuning 的模型。通常,LoRA 的性能甚至比微調所有層更好,如下面 LoRA 論文的注釋表所示。

圖片

值得注意的是,LoRA 與其他微調方法正交,這意味著它也可以與 Adapters 或 prefix tuning 相結合。

LoRA & LLaMA

現在,讓我們使用 LoRA 來微調 Meta 提出的 LLaMA 模型。

除了用于訓練和運行 LLaMA 本身的代碼(使用原始的 Meta-LLaMA 權重)外,還包含用于使用 LLaMA Adapter 和 LoRA 微調 LLaMA 的代碼。

作者建議使用以下操作方法文件:

  • 下載預訓練的權重:https://github.com/Lightning-AI/lit-llama/blob/main/howto/download_weights.md
  • 使用 LoRA 進行微調:https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_lora.md
  • 使用適配器進行微調:https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_adapter.md(可選,用于比較研究)

下一節將比較 7B LLaMA 基礎模型與使用 LoRA 和 LLaMA Adapter 微調的 7B LLaMA 基礎模型。(請注意,需要具有至少 24 GB RAM 的 GPU)。

計算性能基準

本節中,作者將比較 LLaMA 7B 基礎模型與使用 LoRA 和 LLaMA Adapter 微調的基礎模型的計算性能。

微調數據集是 Alpaca 52k 指令數據集,其結構如下:

圖片

數據集是按照 Self-Instruct 論文中描述的方法生成的,由 49759 個訓練樣本和 2000 個驗證樣本組成。Self-Instruct 的流程可總結為 4 個步驟:

  • 種子任務池,包含一組人工編寫的指令(本例中為 175 條)和樣本指令;
  • 使用預訓練的 LLM(如 GPT-3)來確定任務類別;
  • 給定新指令,讓預訓練的 LLM 生成響應結果;
  • 在將響應結果添加到任務池之前,先收集、剪枝和篩選響應結果。

圖片

Alpaca 52k 數據集是使用上述 Self-Instruct 程序收集的。但是,也可以使用(或將其與)替代數據集進行比較。例如,一個有趣的候選數據集是最近發布的開源 databricks-doolly-15k 數據集,該數據集包含 databricks 員工編寫的約 15k 條指令 / 響應微調記錄。Lit LLaMA 存儲庫包含一個數據集制備腳本,可以選擇使用 Dolly 15k 數據集。

給定以下超參數設置(塊大小、批大小和 LoRA 的 r),Adapter 和 LoRA 都可以以 bfloat-16 的混合精度,在具有 24 Gb RAM 的單個 GPU 上微調 7B 參數的 LLaMA 基本模型。

LoRA

圖片

LaMA Adapter

圖片

如果代碼將來發生變化,GitHub 上會同步更新代碼(帶有超參數設置)。

Adapter 在 A100 上使用了大約 22 Gb 的空間,并在 162 分鐘內完成了 62400 次迭代。同樣的迭代次數下,LoRA 使用了 21 Gb 的內存,在 192 分鐘內完成。總之,同樣基于 Lit-LLaMA 的 Adapter 和 LoRA 使用的 RAM 數量大致相同,訓練時間大致相同。(請注意,這是在單個 GPU 上進行的,但如果有多個 GPU,只需將設備參數更改為 > 1 即可利用額外的加速!)相比之下,完全微調(LLaMA 7B 由 32 個 Transformer 塊和 3 個全連接的輸出層組成)需要至少 2 個具有至少 30Gb 的 GPU 和完全分片訓練來分配權重。或者,可以使用 4 個 GPU,每個 GPU 的最大內存使用量為 22 Gb。在 4 個 GPU 上進行訓練,訓練耗時 1956 分鐘。在單個 GPU 上至少需要 6000 分鐘,這將比參數高效的 LLaMA Adapter 或 LoRA 代價昂貴 30-40 倍。

接下來,本文將介紹應用不同微調策略后的模型輸出。

評估建模性能

有幾種度量標準可用于評估 LLM 生成的文本。例如,困惑度、BLEU 和 ROUGE 分數是自然語言處理中用來評估 LLM 在各種任務中的表現的一些最常見的評估指標。然而,所有這些指標都有很大的缺點,人工評估仍然是黃金標準 —— 人工評估的缺點是創建成本高,難以自動化。簡單起見,本文只關注定性比較,看看各種模型產生的一些輸出。

為了對模型進行定性比較,本文將使用 “請解釋權重衰減是如何工作的” 作為 prompt。

基準模型

圖片

請解釋一下權重衰減是如何工作的…… 以及為什么它有時看起來有效,有時無效!

最簡單地說,權重衰減從模型中刪除特征(作為特征重要性的函數),它也被稱為正則化。

推理時間 1:4.18 秒,11.95 個 token / 秒

正如我們所看到的,模型開始通過附加 “… 以及為什么它有時看起來有效,有時不起作用!” 來補全 prompt。這是因為基礎模型只在下一個單詞預測任務中進行了訓練,沒有經過專門的訓練來處理指令。盡管如此,它試圖在下面進一步解釋。這種解釋對正則化做出了一些正確的解釋,但它并沒有真正捕捉到權重衰減的關鍵機制。

LLaMA-Adapter

圖片

權重衰減是一種懲罰詞條字數的方法。通過選擇單詞較少的句子,模型更有可能選擇那些可能提供重要信息的句子。

推理時間:總計 7.04 秒,14.21 個 tokens/sec。

使用的內存:13.56 GB。

這個解釋在語法上是合理的,但也不一定是我們想要的。

LoRA

圖片

權重衰減是機器學習模型中用于減少過擬合的算法參數。這是一個調整模型權重的過程,以減少模型中不太重要的特征的影響并防止過擬合。權重衰減是通過向權重添加少量噪聲來減少模型對訓練數據的影響。這個過程鼓勵模型更多地關注對預測任務更重要的特征。

推理時間:總計 3.25 秒,30.76 個 tokens/sec。

使用的內存:27.65 GB。

可以看到離期望的答案越來越近了;放到廣義線性模型中,這種解釋確實有意義,在廣義線性模型中,會強迫模型學習與輸入特征相乘結果較小的權重參數。在神經網絡中,這通常會應用于模型中的所有權重參數。

上面的 LoRA 方法目前來說使用的內存最多。然而,如前所述,可以通過將 LoRA 權重與預訓練的模型權重合并來減少這種內存使用。

由于評估 LLM 本身就是一個大課題,因此這種定性概述只能反應每個模型能力的一小部分。但這里的要點是,LoRA 可以用于以相對經濟高效的方式在指令數據集上微調 LLM。

結論

本文討論了低秩自適應(LoRA),這是一種參數完全微調的有效替代方案。使用 LoRA,可以在幾個小時內在單個 GPU 上對 LLaMA 等相對較大的模型進行微調,這使得它對那些不想在 GPU 資源上花費數千美元的人特別有吸引力。LoRA 的特別之處在于,可以選擇性地將新的 LoRA 權重矩陣與原始的預訓練權重合并,這樣在推理過程中就不會產生額外的開銷或復雜性。

隨著越來越多的 ChatGPT 或 GPT-4 開源替代品的出現,在特定的目標數據集或目標上微調和定制這些 LLM 將在各個研究領域和行業變得越來越有吸引力。而 LoRA 等參數有效的微調技術使微調更具資源效率和可訪問性。Lit LLaMA 存儲庫中提供了諸如 LoRA 和 LLaMA Adapter 之類的參數高效微調技術。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2021-07-01 07:34:09

LinuxIO模型

2023-08-08 12:55:30

強化學習訓練

2019-11-12 13:30:07

開源技術 軟件

2024-11-01 12:10:57

2024-10-08 15:00:00

2013-03-26 10:10:38

服務器RubyGo

2024-10-31 10:41:01

2012-12-21 09:31:52

Windows 8

2014-11-03 18:22:53

2023-10-26 18:22:16

前端CSSFlex 布局

2023-03-14 13:45:14

模型AI

2023-09-18 11:25:00

2023-06-08 11:27:10

模型AI

2023-06-07 08:22:59

LLM微調技術

2024-06-06 08:25:30

2020-05-21 09:17:51

Vue 3Vue代碼

2023-08-01 13:31:18

模型Alpacaicuna

2024-04-30 10:40:11

2015-08-24 14:36:53

2018-08-30 17:28:52

TCP三次握手HTTP
點贊
收藏

51CTO技術棧公眾號

日韩国产精品久久| 欧洲vs亚洲vs国产| 亚洲精品中文字幕乱码三区| 91中文字幕在线| 青娱乐国产在线| 欧美成人一区在线观看| 欧美午夜精品久久久久久孕妇 | 粉嫩精品导航导航| 欧美性xxxxx极品| 亚洲人成人77777线观看| 亚洲国产精品18久久久久久| 日韩一区精品视频| 久久久久久国产精品久久| b站大片免费直播| 国产一区二区久久久久| 日韩欧美精品中文字幕| 亚洲成年人专区| 黄色软件在线| 国产91综合一区在线观看| 国产不卡av在线| 国产一卡二卡在线播放| 日韩精品免费一区二区三区| 亚洲精品一区二区三区精华液 | 国产大片aaa| 久久一区二区三区电影| 日韩成人中文电影| 国产成人精品综合久久久久99| 日韩免费va| 五月婷婷激情综合| 成人国产在线看| 一区二区三区视频在线观看视频| 99久久伊人精品| 97久久天天综合色天天综合色hd | 劲爆欧美第一页| 久久国产精品亚洲人一区二区三区 | 欧美视频在线观看免费网址| 久久久久久av无码免费网站下载| 日本高清在线观看wwwww色| 久久综合色天天久久综合图片| 97久久天天综合色天天综合色hd| 91麻豆国产视频| 蜜桃一区二区三区在线| 欧美亚洲国产精品| 色播视频在线播放| 在线日韩视频| 久久久久久久久久久久av| 91在线播放观看| 国产精品国内免费一区二区三区| 国产午夜精品免费一区二区三区 | 国产日韩亚洲欧美| 亚洲一级视频在线观看| 日韩精品亚洲专区| 国产精品福利在线观看| 国产一区二区视频免费| 久久午夜电影| 国产精品久久久久av| 91久久国产综合久久91| 日韩精品福利网| 国产精品v片在线观看不卡| 波多野结衣视频免费观看| 日韩激情视频在线观看| 国产激情视频一区| 性色av一区二区三区四区| 日本美女视频一区二区| 国产女人18毛片水18精品| 中文字幕在线观看欧美| 麻豆精品在线看| 成人免费视频97| 超碰人人人人人人| 成人v精品蜜桃久久一区| 久久国产日韩欧美| 国产视频网站在线| 亚洲欧洲一区二区三区| 欧美少妇一级片| 日韩伦理av| 欧美日韩国产丝袜另类| 六月丁香婷婷在线| 国产精品4hu.www| 欧美一区二区网站| 国产精品入口麻豆| 精品国产精品| 久久国产精品偷| www.av视频在线观看| 久久精品午夜| 成人在线播放av| 高h调教冰块play男男双性文| 91亚洲精华国产精华精华液| 欧美日韩喷水| 巨大荫蒂视频欧美大片| 亚洲午夜日本在线观看| 成年人视频网站免费观看| 免费日韩成人| 亚洲精品一区二区三区蜜桃下载| 欧美成人国产精品一区二区| 亚洲91中文字幕无线码三区| 91精品国产高清| 亚洲在线视频播放| thepron国产精品| 午夜精品短视频| 国产乱妇乱子在线播视频播放网站| 欧美日韩亚洲精品内裤| 午夜免费福利视频在线观看| 狠狠久久伊人| www国产精品com| 欧美精品亚洲精品日韩精品| 美女视频黄 久久| 国产专区一区二区| 久草免费在线观看| 欧美色xxxx| 日本少妇xxx| 欧美一级本道电影免费专区| 欧美激情三级免费| 伊人精品一区二区三区| 91免费国产视频网站| 亚洲中文字幕无码一区二区三区| 欧美韩国亚洲| 亚洲国产欧美自拍| www欧美com| 秋霞电影一区二区| 久久国产主播精品| 国产福利在线免费观看| 在线观看91精品国产麻豆| 少妇特黄一区二区三区| 狠狠爱www人成狠狠爱综合网 | av免费观看网| 欧美一级大片在线视频| 中文字幕亚洲欧美日韩2019| 国产又大又黄视频| 成人免费毛片片v| www.黄色网址.com| 四虎影视精品永久在线观看| 亚洲人在线观看| 久久久久久久久久久久久av| 豆国产96在线|亚洲| 国产卡一卡二在线| 9999在线精品视频| 日韩中文字幕免费看| 久久人人爽人人爽人人片av免费| 95精品视频在线| 国产原创中文在线观看| 911亚洲精品| 欧美日韩国产va另类| 国产三级在线观看视频| 亚洲日本va午夜在线影院| 91亚洲精品久久久蜜桃借种| 日韩电影一区| 国产美女主播一区| 日韩在线免费电影| 欧美片网站yy| 亚洲一二三在线观看| 久久国产麻豆精品| 亚洲成人午夜在线| 涩涩涩久久久成人精品| 久久久精品电影| 99视频免费看| 一区二区三区在线免费视频 | 国产视频一区在线播放| 草草草在线视频| 国模精品一区| 成人免费激情视频| 男女免费观看在线爽爽爽视频| 欧美va亚洲va在线观看蝴蝶网| 久久精品国产亚洲av高清色欲| 成人一道本在线| 欧美成人三级在线视频| 网红女主播少妇精品视频| 日本伊人精品一区二区三区介绍| 精品久久久久一区二区三区| 欧美三级午夜理伦三级中视频| 我要看一级黄色录像| 国产一区二区中文字幕| 日韩精品久久一区二区| 欧美成人午夜77777| 日韩av电影在线播放| 麻豆tv免费在线观看| 欧美成人精品1314www| 日本亚洲欧美在线| 国产亚洲成年网址在线观看| 免费在线观看污网站| 欧美午夜一区二区福利视频| 久久综合九色欧美狠狠| 激情小说亚洲| 久久久在线视频| 裸体xxxx视频在线| 欧美福利电影网| 日韩免费观看一区二区| 国产精品久久久久久亚洲伦| 波多野结衣三级视频| 久久大逼视频| av不卡在线免费观看| 欧美三级自拍| 国产日产久久高清欧美一区| 999精品网| 中文字幕久热精品在线视频 | 欧美在线se| 91极品视频在线| 伊人在线视频| 亚洲精品小视频| 精品人妻久久久久一区二区三区| 欧美性色xo影院| 免费无遮挡无码永久在线观看视频| 91在线精品一区二区三区| 日韩一区二区三区久久| 99视频一区| 麻豆一区二区三区在线观看| 亚洲精品亚洲人成在线| 97久久天天综合色天天综合色hd | 男人天堂亚洲天堂| 这里只有精品视频在线| 天天干天天草天天射| 在线综合亚洲欧美在线视频| 一级特黄免费视频| 亚洲国产精品一区二区www| 亚洲一级二级片| 国产亚洲短视频| 亚洲少妇18p| 国产成人免费视频精品含羞草妖精| 亚洲欧美激情网| 亚洲综合国产| 一本久道高清无码视频| 亚洲经典一区| 一区二区视频在线播放| 国产一区二区三区91| 精品一区日韩成人| 91欧美日韩在线| 亚洲字幕一区二区| 亚洲一区有码| 国产欧美在线播放| 97欧美成人| 国产成人极品视频| 中文字幕成在线观看| 97香蕉超级碰碰久久免费的优势| 午夜小视频在线观看| 久久久精品网站| 麻豆视频在线观看免费网站| 日韩一区二区欧美| 在线观看国产原创自拍视频| 在线观看视频亚洲| 国产福利第一视频在线播放| 精品视频—区二区三区免费| 五月天久久久久久| 亚洲国产高潮在线观看| 天天干天天草天天射| 精品亚洲一区二区三区| 欧美69xxxxx| 亚洲视频在线视频| h网站在线免费观看| 亚洲最新视频在线| 在线观看麻豆| 日韩中文字幕精品视频| 麻豆网站在线看| 九九热精品在线| 国产区美女在线| 欧美中文字幕视频在线观看| 欧美性suv| 国产欧美日韩免费看aⅴ视频| 亚洲热av色在线播放| 91久久极品少妇xxxxⅹ软件| 99这里只有精品视频| 国产一区二区不卡视频| 亚洲精品进入| 一区二区国产日产| 欧美先锋影音| 国产无套内射久久久国产| 欧美bbbbb| 日本一本在线视频| 成人av先锋影音| 性欧美13一14内谢| 国产精品久线在线观看| 麻豆亚洲av熟女国产一区二| 午夜精品福利在线| 91丨九色丨海角社区| 在线不卡免费欧美| 熟妇人妻一区二区三区四区| 亚洲人成电影在线观看天堂色| av黄色在线观看| 欧美人交a欧美精品| 亚洲人成在线网站| 国产在线观看精品一区二区三区| 中文久久电影小说| 免费成人av网站| 91九色精品国产一区二区| 青青草成人免费在线视频| 日韩电影在线免费看| 免费看的av网站| 国产日韩欧美激情| 久草视频在线资源| 在线观看日韩一区| 亚洲av无码国产精品久久不卡| 日韩精品中文字幕在线播放| 色综合久久久久综合一本到桃花网| 久久久久久香蕉网| 久久久国产精品网站| 国产一区二区视频在线免费观看| 精品免费在线| 免费看欧美黑人毛片| 美腿丝袜亚洲三区| 特大黑人巨人吊xxxx| 亚洲欧美日韩国产手机在线 | 成人在线高清免费| 国产精品欧美一区二区三区奶水| 色播一区二区| 亚洲美女搞黄| 久久久久久色| 亚洲国产精品狼友在线观看| 国产精品久久夜| 久久国产视频播放| 日韩亚洲电影在线| av亚洲在线| 欧美一级片久久久久久久| 国产精品一区三区在线观看| 青青草成人网| 国产视频一区免费看| 女人扒开腿免费视频app| 中文字幕免费不卡| www.国产com| 亚洲国产精品字幕| av日韩国产| 成人永久免费| 欧美日韩 国产精品| 国产一级免费大片| 中日韩av电影| 日本黄色中文字幕| 亚洲精品综合精品自拍| 国产传媒在线| 精品国产乱码久久久久久88av | 亚洲欧美日韩三级| 国产女人水真多18毛片18精品视频| 亚洲精品视频在线观看免费视频| 日韩欧美国产一二三区| 亚洲制服国产| 亚洲xxx大片| 亚洲电影影音先锋| 视频区 图片区 小说区| 亚洲天堂成人网| 国产精品一区二区人人爽| 深夜福利国产精品| 精品69视频一区二区三区| 日韩免费电影一区二区| 日韩不卡手机在线v区| 国产视频不卡在线| 欧美日韩三级一区二区| 日本www在线观看视频| 成人h猎奇视频网站| 91精品婷婷色在线观看| 两性午夜免费视频| 亚洲综合区在线| 女人18毛片水真多18精品| 久久噜噜噜精品国产亚洲综合| 国产精品调教| 欧美日韩中文在线视频| 久久久久99精品一区| 亚洲av无码不卡| 最近2019好看的中文字幕免费| 国产亚洲欧美日韩精品一区二区三区 | 欧美日韩国产v| 亚洲精品视频一区二区三区| 老司机免费视频一区二区三区| 五月天婷婷丁香网| 91精品欧美综合在线观看最新| av毛片在线免费| 懂色一区二区三区av片| 亚洲久久一区| 一区二区三区四区免费| 欧美三区在线观看| aa在线视频| 国产一区二区三区四区五区加勒比| 国产精品视频| 免费成人深夜天涯网站| 91精品国产色综合久久不卡电影| 中文字幕中文字幕在线中高清免费版| 91文字幕巨乱亚洲香蕉| 日韩天天综合| 特级西西人体高清大胆| 日韩三级中文字幕| 在线观看v片| 一区二区三区四区五区精品| 韩国成人福利片在线播放| 国产主播在线播放| 亚洲女人天堂av| crdy在线观看欧美| 拔插拔插海外华人免费| 久久久久久99久久久精品网站| 一道本无吗一区| 性欧美视频videos6一9| 日韩一区二区中文| 妖精视频一区二区| 欧美在线观看你懂的| 污污的网站在线看| 日本高清不卡一区二区三| 国产又粗又猛又爽又黄91精品| 国产精品99精品无码视| 在线观看国产精品日韩av| 免费看日产一区二区三区| 男人靠女人免费视频网站| 亚洲天天做日日做天天谢日日欢| 人人妻人人澡人人爽久久av| 国产精品人成电影在线观看| 激情偷拍久久| 最新黄色av网址|