精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題 原創

發布于 2025-6-11 09:41
瀏覽
0收藏

身為一名AI工程師,我過去的工作主要集中在應用層開發,對算法的理解并不深入。然而,近期我開始對算法產生了濃厚的興趣,并轉向研究模型微調。在眾多微調算法中,Lora以其普遍應用引起了我的關注,我計劃在本文中對它進行詳細介紹。將Lora僅僅視為一種算法可能并不準確,它更像是一種精妙的技巧或策略。下文將圍繞幾個核心問題,全面探討和解析Lora技術,希望這些內容能為對模型微調感興趣的你提供有用的參考和幫助。

Lora是什么

假設大模型的原始的權重矩陣w是:

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題-AI.x社區

全量微調需要更新 5 * 4 = 20個參數,假設微調后的參數是:

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題-AI.x社區

這個可以轉化為:

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題-AI.x社區

其中ΔW 可以分解為

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題-AI.x社區

  • 矩陣 ( A ):尺寸 ( 5 * 2 ),共10個參數
  • 矩陣 ( B ):尺寸 ( 2 * 4 ),共8個參數
  • LoRA總參數:( 10 + 8 = 18 ) 個

也就是說通過LoRA微調,調參對象從 W 變為 A、B,使得參數量從20個減少為18個,這是簡化的例子。在實際案例中,參數量可以減少為0.01%~3%左右。

為什么需要LoRA

LoRA最早出現在2021年由微軟研究院提出的一篇論文中(《LoRA: Low-Rank Adaptation of Large Language Models》),LoRA的核心思路是:與其每次都復制整個模型,不如只調整一小部分參數,把成本降下來。它的目標是解決大模型微調中的兩大痛點:

  1. 資源消耗太大:大型語言模型動輒幾億甚至幾千億參數,全參數微調需要為每個新任務保存一份完整的模型副本。比如,一個10億參數的模型,假設每個參數用4字節(float32),光存儲就得4GB。多個任務下來,硬盤和顯存都吃不消。
  2. 訓練效率低下:全參數微調不僅占空間,還需要大量計算資源和時間。每次訓練都得更新所有參數。

LoRA的核心亮點

  1. 參數少
  • 在GPT-3上,??r = 8??的LoRA參數量占全微調的0.01%-0.1%,性能卻達到全微調的95%-99%。
  • 在GLUE任務(BERT),??r = 16??的LoRA用0.1%參數,平均得分僅比全微調低0.5-1分。
  • 它只微調原始參數的1%甚至更少。
  1. 速度快
  • 訓練和部署都比全參數微調省時省力。
  1. 模塊化
  • 訓練好的LoRA“插件”可以隨時加載或卸載,不影響原始模型,特別適合多任務場景。

模塊化設計的優點

  • 避免災難性遺忘
    直接修改???W??? 可能導致模型在新任務上表現良好,但在原始任務上性能下降(即“災難性遺忘”)。LoRA通過凍結核心??W??,保留了原始模型的能力。
  • 存儲高效
    一個大模型可以搭配多個LoRA模塊,每個模塊只占用MB級空間,相比全模型微調動輒幾GB,節省顯著。
  • 快速切換任務
    任務切換只需加載不同LoRA文件,幾秒鐘搞定,不用重新訓練。
  • 兼容性強
    原始模型完全不動,多個團隊可以共享同一個基礎模型,只開發自己的LoRA模塊。

為什么可以對增量權重 ΔW 低秩分解?

低秩分解的核心思想是:矩陣里的信息往往不是均勻分布的,很多維度是冗余的,只需要抓住"主要方向"就夠了。

1. 什么是矩陣的秩(Rank)?

在線性代數中,一個矩陣的秩(rank)是它的線性獨立行或列的數量。如果一個矩陣是"低秩"的,意味著它的信息可以用少量獨立方向表達,而不是需要完整的維度。

比如下述矩陣,第5行 ??[1, 2, 0, 3, 0]??? 是第1行 ??[1, 0, 0, 2, 0]??? 和第2行 ??[0, 2, 0, 1, 0]?? 的線性組合(第5行=第1行+第2行),第5行沒有提供更多的信息,理論上這個矩陣有前4行就能提供所有信息了,因此矩陣的行秩為4(列秩也為4,第5列全為0,沒有信息增量)。

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題-AI.x社區

2. 低秩分解的原理

奇異值分解(SVD)可以把任意矩陣分解成三個矩陣的乘積。對于一個形狀 ( d * k ) 的矩陣 ( W ),SVD可以寫成:

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題-AI.x社區


  • ( U ) 是 ( d * d ) 的正交矩陣
  • (Σ ) 是 ( d * k ) 的對角矩陣(奇異值按降序排列)
  • ( V^T ) 是 ( k * k ) 的正交矩陣(( V ) 的轉置)

其中 ( r ) 是矩陣的秩(非零奇異值的數量)。通過保留前 ( r ) 個最大的奇異值(低秩近似),可以用更少的參數近似原矩陣 ( W )。

任意矩陣(無論是實數還是復數、方陣還是非方陣、滿秩還是不滿秩)都可以通過奇異值分解(SVD)精確拆分為三個特定矩陣的乘積

舉個例子,針對上述矩陣 ( S ) 的SVD分解(計算過程略):

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題-AI.x社區

如果只保留前三個奇異值(7.03, 3, 2.15),重構后的矩陣 ( S' ) 與原矩陣 ( S ) 幾乎一致(三個矩陣分別取前三列,前三行&前三列,前三行):

從原理到調參,小白也能讀懂的大模型微調LoRA,不懂線性代數也沒問題-AI.x社區

結果對比原始矩陣和重構矩陣,直觀上來看,基本保持一致,這就是說:如果只保留最大的幾個奇異值,就能用更少的參數近似表示w

3. 為什么可以對增量權重 ΔW 低秩分解?

研究發現:

  • 信息集中性:微調后的權重變化 ( ΔW) 的奇異值分布中,前10-20個奇異值占據了90%以上的信息(LoRA論文在GPT-3上的實驗結論)。
  • 結構化特性:(ΔW ) 的變化不是隨機的,而是集中在少數"任務相關方向"上(例如讓模型學習法律術語只需調整少量語義方向)。
  • 高效近似:直接用低秩矩陣 ( A * B ) 構造 (ΔW ),無需完整SVD計算,參數量從 ( d * k ) 降至 ( (d + k) * r )。

直觀理解:  微調類似于讓一個已學會"說話"的模型掌握某種"口音"。這種調整只需修改少數關鍵維度(如詞匯選擇),而非全部語言規則,因此低秩足夠。

舉個例子
對一個 ( 512 * 512 ) 的權重矩陣(262,144參數):

  • 全微調:更新全部262,144個參數。
  • LoRA(( r=8 )):僅需 ( 512 * 8 + 8 *  512 = 8,192 ) 個參數,即可捕捉主要變化。

4. 對原始權重 ( W ) 可以低秩分解嗎?

不行。預訓練模型的權重 ( W ) 通常接近滿秩(奇異值分布平滑),低秩分解會丟失關鍵信息。而 ( ΔW ) 的秩天然較低,適合分解。

LoRA是如何更新參數的

本質上,LoRA仍然使用反向傳播算法進行參數更新,但僅針對新增的低秩矩陣 ( A ) 和 ( B ),而保持原始權重 ( W ) 凍結。

參數更新過程

(1)初始化

  • ( W ) 使用預訓練模型的權重,梯度計算被禁用(不更新)。
  • ( A ) 用小的隨機高斯分布初始化
  • ( B ) 初始化為全零矩陣,確保訓練開始時 ( ΔW = 0 ),避免干擾原始模型。

(2)前向傳播

  • 輸入數據 ( X ) 通過調整后的權重計算輸出
  • 根據任務目標 計算損失函數 ( L )(如交叉熵損失)。

(3)反向傳播

  • 計算損失 ( L ) 對 ( A ) 和 ( B ) 的梯度
  • 不計算( W ) 的梯度(因其被凍結)。

(4)參數更新

  • 使用優化器(如Adam)更新

(5)迭代優化

  • 重復步驟2-4,直到損失收斂或達到訓練輪次。
  • 訓練完成后,( A ) 和 ( B ) 捕捉了任務特定的調整信息。

推理部署選項

  • 合并權重:將 ( W' = W + A * B ) 合并為單一矩陣,直接用于推理(適合固定任務)。
  • 動態加載:保持 ( W ) 和 ( A * B ) 分離,靈活切換不同任務的LoRA模塊(適合多任務場景)。

關鍵特點

  • 參數高效:僅訓練 ( A ) 和 ( B ),參數量從 ( d * k ) 降至 ( (d + k) * r )。
  • 內存節省:無需存儲全參數微調的梯度,顯存占用大幅降低。
  • 兼容性:原始模型 ( W ) 保持不變,支持多任務共享。

LoRA可以用在Transformer的哪些層

LoRA是"好鋼要用在刀刃上"。并非模型的所有參數都需要微調,選擇關鍵層進行適配即可達到接近全參數微調的效果。LoRA目前主要可以應用在transformer中的以下兩類層:

Transformer是谷歌在2017年推出的深度學習模型,專門處理序列數據。簡單來說,序列數據就像排隊的小朋友,每個小朋友都有自己的位置和信息,Transformer能把這些信息處理得明明白白。后面有空我會專門出一個系列講解一下。

1. 注意力層(Self-Attention)

Transformer的核心是多頭注意力機制,每個注意力頭包含4個權重矩陣:

  • ( W_q )(Query)
  • ( W_k )(Key)
  • ( W_v )(Value)
  • ( W_o )(Output)

LoRA通常應用在

  • ( W_q ) 和 ( W_v )(最高優先級):
  • 調整 ( W_q ) 可改變模型"關注哪些信息"。
  • 調整 ( W_v ) 可影響"如何編碼關注的信息"。
  • ( W_o )(次優先級):
  • 調整輸出投影矩陣,但收益通常不如 ( W_q ) 和 ( W_v ) 顯著。

實驗結論(來自LoRA原論文):

  • 僅微調 ( W_q ) 和 ( W_v ) 即可達到全參數微調效果的90%以上。
  • 添加 ( W_o ) 的LoRA對性能提升有限(<2%),但會增加參數量。

2. 前饋網絡層(FFN)

FFN包含兩個線性變換:

  • ( W_1 ):升維(通常放大4倍,如d_model → 4×d_model)
  • ( W_2 ):降維(4×d_model → d_model)

適用場景

  • 大模型(如GPT-3):添加FFN層的LoRA可進一步提升性能。
  • 復雜生成任務:調整FFN能增強任務特定的特征表達。

不推薦使用LoRA的層

(1)嵌入層(Embedding)

  • 參數量大但微調收益低,凍結可節省資源。

(2)LayerNorm/Bias

  • 參數少,直接全參數微調成本低。
  • LayerNorm的縮放因子和偏置本身具有低秩特性,無需LoRA。

實際配置建議

模型規模

推薦LoRA目標層

典型rank (r)

小模型(如BERT)

僅 ( W_q ), ( W_v )

8-16

大模型(如GPT-3)

( W_q ), ( W_v ), FFN的 ( W_1 )

32-64

復雜生成任務

所有注意力矩陣 + FFN

64+

模塊化設計優勢

  • 任務切換:不同任務可獨立配置LoRA模塊(如翻譯任務用( W_q ), ( W_v ),摘要任務額外啟用FFN)。
  • 資源分配:對關鍵層分配更高秩(如( r=32 )),次要層用低秩(如( r=8 ))。

LoRA訓練時需要調整哪些超參數

以 LLaMA-Factory 的配置為例,說明 LoRA 的關鍵超參數及其調參策略:

核心參數表

參數名

類型/范圍

含義

建議值

默認值

??finetuning_type??

??["full","freeze","lora"]??

微調類型選擇

必須設為 ??"lora"??

??"lora"??

??lora_rank??

 (r)

正整數

LoRA的秩,決定矩陣A/B的列數/行數

簡單任務:8-16
中等任務:32
復雜任務:64+

8

??lora_alpha??

 (α)

正整數

縮放系數,控制ΔW對原始權重W的影響強度

通常設為 ??lora_rank?? 的1-2倍(如r=16時α=32)

None

??lora_dropout??

0.0-1.0

LoRA層的Dropout概率

大數據集:0.0
小數據集:0.05-0.1(防過擬合)

0.0

??lora_target??

逗號分隔的字符串

應用LoRA的模塊名稱(需匹配模型層名)

默認:??"q_proj,v_proj"???復雜任務:??"q_proj,k_proj,v_proj,o_proj"??

??"all"??

??additional_target??

逗號分隔的字符串

額外擴展的LoRA目標模塊(如FFN層)

通常留空,大模型可加??"ffn.w1,ffn.w2"??

None

調參技巧
  1. 秩(r)的選擇
  • 小數據集(<5K樣本):r=8
  • 大數據集(>50K樣本):r=32+
  • 從小開始:優先嘗試r=8或16,逐步增加直至性能飽和。
  • 數據量關聯
  1. 目標層選擇策略

# 簡單任務(如分類)
lora_target = "q_proj,v_proj"

# 復雜任務(如生成)
lora_target = "q_proj,k_proj,v_proj,o_proj,ffn.w1,ffn.w2"

 3.改進技術的適用場景

  • LoRA+:訓練速度要求高時啟用(設??lorapius_lr_ratio=8??)。
  • DoRA:需要逼近全微調性能時開啟(??use_dora=true??)。
  • rsLoRA:當r≥32時更穩定(??use_rslora=true??)。
參數影響對比

超參數

參數量影響

訓練速度

性能影響

??lora_rank??

 ↑

線性增加

略微下降

先升后平

??lora_alpha??

 ↑

無影響

無影響

調節強度

??use_dora=true??

增加約10%

下降10%-20%

提升1%-3%

??pissa_init=true??

無影響

初始化耗時增加

收斂更快

經典配置示例

# GLUE任務(BERT-base)
lora_rank:16
lora_alpha:32
lora_target:"query,value"
lora_dropout:0.1

# GPT-3文本生成
lora_rank:64
lora_alpha:128
use_rslora:true
lora_target:"q_proj,v_proj,ffn.w1"

總結

LoRA是一種高效的大模型微調技術,它通過低秩矩陣分解顯著地減少了參數量和計算資源的需求,同時又能保持接近全模型微調的性能。在接下來的文章中,我們將從實戰角度出發,借由Llama-Factory來進行模型微調。我希望能幫助讀者從零開始,全面掌握模型微調的知識和技巧。


本文轉載自??AI 博物院?? 作者:longyunfeigu


?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2025-6-11 10:12:49修改
1
收藏
回復
舉報
回復
相關推薦
伊人亚洲福利一区二区三区| 亚洲蜜臀av乱码久久精品| 欧美激情视频播放| 国产传媒第一页| 国产91亚洲精品久久久| 国产亚洲欧美日韩精品一区二区三区 | the porn av| 乱人伦中文视频在线| 成人一区二区三区视频| 国产精品爱久久久久久久| 中国一级片在线观看| 日韩福利视频一区| 欧美精品久久久久久久久老牛影院| www.一区二区.com| 日本精品一区二区三区在线播放| 成人爱爱电影网址| 国产在线拍揄自揄视频不卡99| 国产无码精品久久久| 成人一二三区| 日韩精品中文字幕在线播放| 免费黄频在线观看| 免费在线激情视频| 少妇又紧又色又爽又刺激视频| 中国成人一区| 在线日韩日本国产亚洲| 伊人网综合视频| 国产精品日本一区二区三区在线| 91福利国产成人精品照片| 波多野结衣av一区二区全免费观看| 岛国大片在线观看| 成人国产在线观看| 51国偷自产一区二区三区的来源| 中文字幕一区二区三区四区视频 | 国产又粗又猛又爽| 丝袜美腿亚洲一区| 91福利视频网| 久久亚洲国产成人精品性色| 91精品国产乱码久久久久久| 中文字幕日本精品| 538prom精品视频线放| 久久久精品动漫| 成人毛片在线免费观看| 国产精品一区二区x88av| 国产精品自拍偷拍| 日韩精选在线观看| 久久免费黄色| 日本91av在线播放| 影音先锋在线国产| 亚洲影视综合| 欧美尤物巨大精品爽| 欧美三级韩国三级日本三斤在线观看| 亚洲一级电影| 91精品国产精品| 91美女免费看| 午夜在线a亚洲v天堂网2018| 欧美在线视频一区二区| 91玉足脚交嫩脚丫在线播放| 99精品久久| 奇米成人av国产一区二区三区| 午夜探花在线观看| 中国特级黄色片| 成人精品国产| 555www色欧美视频| 激情小说欧美色图| 看全色黄大色大片免费久久久| 亚洲国产精久久久久久| 特级西西人体4444xxxx| 亚洲精品3区| 亚洲性猛交xxxxwww| 中文字幕有码在线播放| 日韩黄色大片| 美女精品视频一区| 日韩在线观看第一页| 久久www成人_看片免费不卡| 国产精品免费观看在线| 国产精品毛片久久久久久久av| 免费高清在线视频一区·| 91啪国产在线| 视频污在线观看| 国产女同性恋一区二区| 欧美一区二区三区啪啪| 国产在线拍揄自揄拍无码| 欧美日韩色网| 色婷婷综合久色| 中文字幕22页| 久久97久久97精品免视看秋霞| 亚洲精品国精品久久99热 | 日韩精品免费播放| 国产精品传媒麻豆hd| 欧美成人猛片aaaaaaa| 国产精品一区二区入口九绯色| 成人三级视频| 久久久久五月天| 精人妻无码一区二区三区| 狠狠v欧美v日韩v亚洲ⅴ| 国产伦精品一区二区三区在线 | 九九综合在线| 国产不卡在线一区| 国内揄拍国内精品少妇国语| 337p粉嫩色噜噜噜大肥臀| 国产一区二区视频在线播放| 久久久久国产精品视频| 在线免费观看的av网站| 亚洲国产三级在线| 9l视频白拍9色9l视频| 大陆精大陆国产国语精品| 中文字幕在线日韩 | 自拍偷拍亚洲天堂| 欧美激情视频一区二区三区在线播放 | japanese23hdxxxx日韩| 欧美电视剧在线看免费| 亚洲不卡的av| 母乳一区在线观看| 国产精品日韩高清| 91九色在线免费视频| 男人天堂av网| 亚洲三级电影网站| 亚洲免费av一区二区三区| www.亚洲一二| 久久夜色精品国产| 一区二区视频免费| 久久精品人人爽人人爽| 国产真人做爰毛片视频直播| **精品中文字幕一区二区三区| 亚洲欧美激情一区| 久久国产精品系列| 不卡欧美aaaaa| 成人毛片100部免费看| 国外成人福利视频| 亚洲人精品午夜在线观看| 日本一级淫片免费放| 国产黄色精品网站| 精品一区二区成人免费视频| 3d性欧美动漫精品xxxx软件| 日韩风俗一区 二区| 久久精品美女视频| 96视频在线观看欧美| 午夜一区不卡| 亚洲最大成人在线| 国产在线高清视频| 91精品国产欧美日韩| 久久成人小视频| 国内外成人在线| 亚洲在线观看一区| 日韩成人在线电影| 日韩最新在线视频| 91超薄丝袜肉丝一区二区| 国产精品麻豆久久久| 91福利国产成人精品播放| 欧美一区二区三| 国产美女高潮久久白浆| av在线资源站| 欧美肥妇毛茸茸| 91视频综合网| 成人国产精品视频| 国产免费观看高清视频| 香蕉久久夜色精品国产使用方法| 91精品国产一区| 你懂的在线免费观看| 色偷偷一区二区三区| 九九热精品视频国产| 99国产精品免费视频| 亚洲有吗中文字幕| 99九九视频| 超碰99在线| 亚洲欧洲成视频免费观看| 中文字幕一区二区三区免费看 | 国产精品成人免费观看| 粉嫩av一区二区三区粉嫩| 欧美日韩精品在线一区二区| 国产精品一区二区三区av麻| 国产精品丝袜久久久久久高清 | 欧美日韩在线影院| 久久久久亚洲AV成人无在| 激情综合一区二区三区| 国产真实老熟女无套内射| 亚洲伊人春色| 成人免费网站在线观看| 超碰在线资源| 在线观看日韩视频| 黄色片一区二区三区| 国产黄色一级大片| 国产精品热久久久久夜色精品三区| 色婷婷.com| 在线播放日韩| 色吧亚洲视频| www.丝袜精品| 国产精品视频最多的网站| 污污的网站在线免费观看| 精品亚洲永久免费精品| 国产又爽又黄免费软件| 亚洲18色成人| 91制片厂在线| 久久品道一品道久久精品| 特黄视频免费观看| 国产精品永久| 国产小视频免费| 怕怕欧美视频免费大全| 99视频在线播放| jizzyou欧美16| 91超碰中文字幕久久精品| 成人在线免费看片| 亚洲午夜av久久乱码| 亚洲av无码国产精品永久一区| 欧美伊人久久久久久久久影院| 久久国产一级片| 强行糟蹋人妻hd中文| 国产在线国偷精品产拍免费yy| 成人性生活视频免费看| 91九色精品| 奇米视频888战线精品播放| 亚洲一区二区三区免费| 国产精品中文久久久久久久| 亚洲美女久久精品| 欧美精品www| 粗大黑人巨茎大战欧美成人| 中文字幕v亚洲ⅴv天堂| 三级无遮挡在线观看| 欧美xxxxx牲另类人与| 91在线视频国产| 色综合久久88色综合天天6| 国产一级做a爰片在线看免费| 中文字幕一区二区三区在线不卡| 一级黄色性视频| 91亚洲精品久久久蜜桃网站| 日本泡妞xxxx免费视频软件| 国产一区啦啦啦在线观看| 国产区二区三区| 青草国产精品久久久久久| 久久综合久久色| 日韩一区欧美二区| 91av在线免费播放| 国产午夜精品久久久久| 99国产精品久久久久久久久久 | 婷婷国产精品| 国产欧美日韩一区| av不卡一区| 国产精品国产三级国产专区53| 日韩在线网址| 91丝袜脚交足在线播放| 久久九九精品视频| 2022国产精品| 91综合精品国产丝袜长腿久久| 96久久精品| 成人高潮a毛片免费观看网站| 999久久久| ccyy激情综合| 黑人另类av| 日韩精品免费一区二区夜夜嗨| 精品亚洲欧美日韩| 色老板在线视频一区二区| 久久影视中文粉嫩av| 色综合中文网| 亚洲激情图片| 91精品综合久久久久久久久久久| 大桥未久一区二区三区| 一级片aaaa| 国产麻豆精品在线观看| www.成年人| 国产精品主播直播| 午夜影院福利社| 91在线免费播放| 国产av自拍一区| 国产精品进线69影院| 日韩成人短视频| 亚洲成人av福利| 中文字幕一区在线播放| 欧美视频一区二区三区四区 | 日韩欧美在线123| 人人妻人人玩人人澡人人爽| 亚洲欧美中文另类| 在线观看精品一区二区三区| 久久人人爽人人爽爽久久| 黄色污污视频在线观看| 国产成人91久久精品| 久久99久久久精品欧美| 99精品国产高清一区二区| 日韩精品欧美大片| 自拍偷拍99| 影音先锋亚洲精品| 亚洲欧美视频二区| 国产成人av电影在线| 久久精品国产亚洲av久| 中文字幕亚洲区| 久久资源免费视频| 青青久草在线| 精品国产一区二区三区久久久狼| 色a资源在线| 国产z一区二区三区| 久久天堂久久| 日本精品一区二区三区不卡无字幕| 羞羞答答成人影院www| 欧美变态另类刺激| 国产自产2019最新不卡| 精品久久久久久中文字幕人妻最新| 中文字幕永久在线不卡| 国产精品suv一区二区三区| 91精品在线免费| 国产三级在线免费| 久久久视频免费观看| 色综合久久久| 久久久久久久久一区| 亚洲色图插插| 日韩免费高清在线| 99久久久无码国产精品| 欧美人禽zoz0强交| 欧美性大战久久久久久久蜜臀| 人妻妺妺窝人体色www聚色窝| 北条麻妃99精品青青久久| 欧美18—19sex性hd| 国产中文一区二区| 欧美一区影院| 中文字幕免费高清在线| 国产欧美日韩三级| 福利在线一区二区| 超碰在线国产| 日韩资源在线观看| 日本欧美日韩| 久久艳妇乳肉豪妇荡乳av| 狠狠综合久久| 手机av在线网站| 国产精品高潮久久久久无| 一二三区免费视频| 亚洲激情视频在线| 欧美wwww| 999国内精品视频在线| 亚洲成av人片一区二区密柚| 亚洲欧美日韩综合网| 国产欧美日韩视频在线观看| 欧美a视频在线观看| 亚洲欧美另类国产| 中文字幕在线直播| 美国av一区二区三区| 亚洲欧美久久| 国产呦小j女精品视频| 精品日韩中文字幕| 亚洲色图欧美视频| 97成人超碰免| 亚洲免费福利一区| 精品久久久久av| 久久精品综合网| 日韩不卡高清视频| 日韩vs国产vs欧美| 日韩一级精品视频在线观看| 少妇一级淫片免费看| 8x海外华人永久免费日韩内陆视频| 国产片在线播放| 成人h动漫精品一区二区| 日本女人性生活视频| 777午夜精品免费视频| 久久99精品久久久久久野外| 国产色婷婷国产综合在线理论片a| 天天超碰亚洲| 日本少妇一区二区三区| 亚洲一区免费视频| 日韩一区二区三区不卡| 亚州欧美日韩中文视频| 日韩mv欧美mv国产网站| 青青在线视频免费| 国产精品萝li| www.色婷婷.com| 国内精品久久久久久中文字幕| 任你躁在线精品免费| 国产情侣av自拍| 亚洲欧美区自拍先锋| 亚洲国产精品无码久久| 91精品国产高清久久久久久久久 | 久久激情免费视频| 亚洲福利视频久久| 成人日韩在线| 男女激烈动态图| www.亚洲激情.com| 中文字幕视频免费观看| 久久综合88中文色鬼| 大奶一区二区三区| 另类小说第一页| 亚洲六月丁香色婷婷综合久久 | 日本免费一区二区三区| 日韩成人午夜电影| 少妇aaaaa| 日韩电视剧免费观看网站| 欧美va在线观看| 福利在线小视频| 久久久五月婷婷| 99久久久国产精品无码网爆 | 粉嫩av一区二区三区四区五区| 400部精品国偷自产在线观看| 91在线观看污| 国产精品视频一二区| 性欧美视频videos6一9| 国产二区精品| 人人妻人人澡人人爽人人精品| 欧美日韩不卡视频| 忘忧草在线日韩www影院| 伊人久久青草| 久久婷婷国产综合精品青草 | 国产精品久久久久久久久久齐齐| 欧洲精品视频在线| 国产视频亚洲色图| 人妻与黑人一区二区三区|