精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

深度學習中的注意力機制革命:MHA、MQA、GQA至DeepSeek MLA的演變

人工智能
本文將系統梳理這一發展脈絡,深入剖析MHA、MQA、GQA等變體的核心思路與實現方法。

在深度學習領域,注意力機制已然成為現代大模型的核心基石。從最初的多頭注意力(MHA,Multi-Head Attention)到如今的多查詢注意力(MQA,Multi-Query Attention)、分組查詢注意力(GQA,Grouped-Query Attention),再到DeepSeek提出的創新性多頭潛在注意力(MLA,Multi-Head Latent Attention)方法,這一演變歷程不僅是技術發展的脈絡,更是對效率與性能極致追求的生動寫照。本文將系統梳理這一發展脈絡,深入剖析MHA、MQA、GQA等變體的核心思路與實現方法。

圖片

一、Multi-Head Attention

圖片

多頭注意力(Multi-Head Attention,MHA)是Transformer模型架構中的一個核心組件,它允許模型在處理輸入序列時能夠同時關注來自不同位置的不同表示子空間的信息。

MHA通過將輸入向量分割成多個并行的注意力“頭”,每個頭獨立地計算注意力權重并產生輸出,然后將這些輸出通過拼接和線性變換進行合并以生成最終的注意力表示。

下面來看下計算公式:

1. 輸入變換:輸入序列首先通過三個不同的線性變換層,分別得到查詢(Query)、鍵(Key)和值(Value)矩陣。這些變換通常是通過全連接層實現的。

圖片

2. 分頭:將查詢、鍵和值矩陣分成多個頭(即多個子空間),每個頭具有不同的線性變換參數。

3. 注意力計算:對于每個頭,都執行一次縮放點積注意力(Scaled Dot-Product Attention)運算。具體來說,計算查詢和鍵的點積,經過縮放、加上偏置后,使用softmax函數得到注意力權重。這些權重用于加權值矩陣,生成加權和作為每個頭的輸出。

圖片

4. 拼接與融合:將所有頭的輸出拼接在一起,形成一個長向量。然后,對拼接后的向量進行一個最終的線性變換,以整合來自不同頭的信息,得到最終的多頭注意力輸出。

圖片

作為最早提出的注意力機制方法,多頭注意力機制存在的問題:

  1. 計算復雜度高:多頭注意力機制的計算復雜度與輸入序列長度的平方成正比(圖片),這使得在處理長序列時計算量顯著增加。例如,對于長度為1000的序列,計算復雜度將達到圖片,這在實際應用中可能導致訓練和推理速度變慢。
  2. 內存占用大:在多頭注意力機制中,每個頭都需要獨立存儲查詢(Query)、鍵(Key)和值(Value)矩陣,這導致內存消耗顯著增加。對于大規模模型,尤其是在長序列任務中,KV緩存的大小會線性增長,成為內存瓶頸。
  3. 特征冗余:多頭注意力機制中,不同頭可能學習到相似的特征,導致特征冗余。這種冗余不僅浪費計算資源,還可能降低模型的泛化能力。
  4. 模型解釋性差:多頭注意力機制的內部工作機制較為復雜,每個頭的具體功能難以直觀理解,降低了模型的可解釋性。盡管可以通過注意力權重可視化來理解模型關注的輸入信息,但這種解釋性仍然有限。
  5. 過擬合風險:由于多頭注意力機制增加了模型的參數量和復雜度,尤其是在數據量有限的情況下,模型可能會過度擬合訓練數據。
  6. 推理效率低:在自回歸模型中,每個解碼步驟都需要加載解碼器權重以及所有注意力的鍵和值,這不僅計算量大,還對內存帶寬要求高。隨著模型規模的擴大,這種開銷會進一步增加,使得模型擴展變得困難。

二、Multi-Query Attention

針對MHA存在的問題,Google提出了多查詢注意力(Multi-Query Attention,MQA)。MQA的設計初衷是為了在保持Transformer模型性能的同時,顯著提升計算效率和降低內存占用。

在MHA中,輸入分別經過圖片的變換之后,都切成了n份(n=頭數),維度也從圖片降到了圖片,分別進行attention計算再拼接。MQA的做法很簡單,在線性變換之后,只對Q進行切分(和MHA一樣),而K、V則直接在線性變換的時候把維度降到了圖片(而不是切分變小),然后這n個Query頭分別和同一個K、V進行attention計算,之后把結果拼接起來。

簡單來說,就是MHA中,每個注意力頭的K、V不一樣,而MQA中每個注意力頭的K、V一樣,值共享,其他步驟和MHA一樣。

圖片

簡單看下公式:

1. 查詢(Query)保持多頭設計:

圖片

2. 鍵(Key)和值(Value)共享一組矩陣:

圖片

3. 計算注意力輸出:

圖片

下圖是論文中MHA和MQA的對比結果,可以看到由于共享了多個頭的參數,限制了模型的表達能力,MQA雖然能好地支持推理加速,但是在效果上略比MHA差一點,但相比其他修改hidden size或者head num的做法效果都好。

圖片

圖片

MQA通過共享鍵(K)和值(V)矩陣的設計,顯著降低了計算復雜度和內存占用,同時保持了較好的性能表現。這種設計特別適合長序列任務、資源受限的設備以及需要快速推理的場景。但是MQA對于所有query全部共享同一個key、value可能會限制每個查詢頭捕捉不同特征的能力,進而影響模型的整體表達能力和靈活性。

三、Grouped-Query Attention

MQA對效果有點影響,MHA緩存又存不下,Google又繼續提出了一個折中的辦法組查詢注意力(Grouped-Query Attention,GQA),既能減少MQA效果的損失,又相比MHA需要更少的緩存。

圖片

簡單看下公式:

1. 將頭分為g組,每組有h/g個頭。對于每組i:

圖片

2. 計算每個組的注意力輸出并拼接:

圖片

來看下結果:

圖片

看表中2/3/4行對比,GQA的速度相比MHA有明顯提升,而效果上比MQA也好一些,能做到和MHA基本沒差距。文中提到,這里的MQA和GQA都是通過average pooling從MHA初始化而來,然后進行了少量的訓練得到的。

下面是Llama2技術報告中做的MHA、MQA、GQA效果對比,可以看到效果確實很不錯。

圖片

四、Multi-Head Latent Attention

圖片

在最新的DeepSeek論文中,為解決MHA在高計算成本和KV緩存方面的局限性,提出改進的多頭潛在注意力(Multi-Head Latent Attention,MLA),旨在提高Transformer模型在處理長序列時的效率和性能。

MLA的技術創新主要是采用低秩聯合壓縮鍵值技術,優化鍵值(KV)矩陣,顯著減少了內存消耗并提高了推理效率。

具體來說,MLA通過低秩聯合壓縮鍵值(Key-Value),將它們壓縮為一個潛在向量(latent vector),從而大幅減少所需的緩存容量,還降低了計算復雜度。在推理階段,MHA需要緩存獨立的鍵(Key)和值(Value)矩陣,這會增加內存和計算開銷。而MLA通過低秩矩陣分解技術,顯著減小了存儲的KV(Key-Value)的維度,從而降低了內存占用。

MLA利用低秩壓縮技術,使得DeepSeek的KV緩存減少了93.3%。來看下公式:

1. KV聯合低秩壓縮

MLA模型通過低秩壓縮對鍵(keys)和值(values)進行聯合壓縮,以減少KV緩存的大小。其核心公式為:

圖片

  • 圖片是key和value的壓縮潛在向量,圖片表示KV壓縮維度;
  • 圖片是降維投影矩陣,圖片分別是key和value的升維投影矩陣。

2. Q的低秩壓縮

為了降低訓練時的激活內存占用,MLA對query(Q)也進行了低秩壓縮。其核心公式為:

圖片


  • 圖片是query的壓縮潛在向量,圖片表示query壓縮的維度;
  • 圖片是query的降維投影矩陣,圖片是query的升維投影矩陣。

3. RoPE 與低秩 KV 壓縮不兼容問題-解耦 RoPE 策略

RoPE 對keys和queries都是位置敏感的。如果對鍵圖片應用 RoPE,則會有一個與位置相關的 RoPE 矩陣。 這種情況下,圖片在推理過程中不能再被吸收進圖片,因為一個與當前生成的 token 相關的 RoPE 矩陣會存在于圖片之間,矩陣乘法不遵循交換律。因此,必須在推理過程中重新計算所有前綴 token 的鍵,這將顯著阻礙推理效率。 為了解決這個問題,論文提出了解耦 RoPE 策略,該策略使用額外的多查詢注意力(MQA)圖片和共享的鍵圖片來攜帶 RoPE,其中圖片表示解耦query和key的head_dim。

在解耦 RoPE 策略下,MLA 執行以下計算:

圖片

  • 其中圖片圖片是分別生成解耦query和key的矩陣;

下面附上代碼:

import torch
import torch.nn as nn
import math
class MLA(nn.Module):
    def __init__(self, d_model=512, down_dim=128, up_dim=256, num_heads=8, rope_head_dim=26, dropout_prob=0.1):
        super(MLA, self).__init__()
        
        self.d_model = d_model
        self.down_dim = down_dim
        self.up_dim = up_dim
        self.num_heads = num_heads
        self.head_dim = d_model // num_heads
        self.rope_head_dim = rope_head_dim
        self.v_head_dim = up_dim // num_heads    
        # 初始化kv聯合以及q對應的dow,up projection
        self.down_proj_kv = nn.Linear(d_model, down_dim) # W^{DKV}
        self.up_proj_k = nn.Linear(down_dim, up_dim)# W^{UK}
        self.up_proj_v = nn.Linear(down_dim, up_dim) # W^{UV}
        self.down_proj_q = nn.Linear(d_model, down_dim) #W^{DQ}
        self.up_proj_q = nn.Linear(down_dim, up_dim) # W^{UQ}  
        # 初始化解耦的q,k進行MQA計算的映射矩陣
        self.proj_qr = nn.Linear(down_dim, rope_head_dim * num_heads)
        self.proj_kr = nn.Linear(d_model, rope_head_dim*1)
        #初始化解耦的q,k對應的rope類,因為頭的數量不同,初始化2個實例
        self.rope_q = RotaryEmbedding(rope_head_dim * num_heads, num_heads)
        self.rope_k = RotaryEmbedding(rope_head_dim, 1)     
        # Dropout and final linear layer
        self.dropout = nn.Dropout(dropout_prob)
        self.fc = nn.Linear(num_heads * self.v_head_dim, d_model)
        self.res_dropout = nn.Dropout(dropout_prob)
    def forward(self, h, mask=None):
        bs, seq_len, _ = h.size()
       # setp1 :低秩轉換
        c_t_kv = self.down_proj_kv(h)
        k_t_c = self.up_proj_k(c_t_kv)
        v_t_c = self.up_proj_v(c_t_kv)
        c_t_q = self.down_proj_q(h)
        q_t_c = self.up_proj_q(c_t_q)    
        
        #step2:解耦的q,k進行MQA計算,同時引入ROPE
        #q_t_r,k_t_r施加rope時均擴展了n_h_r維度->[bs,n_h_r,seq_len,rope_head_dim]
        q_t_r = self.rope_q(self.proj_qr(c_t_q))
        k_t_r = self.rope_k(self.proj_kr(h))    
        
        #step3:拼接step1,step2得到的q,k,進行sdpa計算
        #q_t_c擴展出num_heads為4維,以便于和q_t_r拼接
        q_t_c = q_t_c.reshape(bs, seq_len, self.num_heads, -1).transpose(1, 2)
        #head_dim,rope_head_dim拼接
        q = torch.cat([q_t_c, q_t_r], dim=-1)
        #k_t_c擴展出num_heads為4維,以便于和k_t_r拼接
        k_t_c = k_t_c.reshape(bs, seq_len, self.num_heads, -1).transpose(1, 2)
        #k_t_r為MQA,n_h_k_r=1,為了和q_t_r計算,需要在n_h_k_r維度復制
        #k_t_r:[bs,n_h_r_k,seq_len,rope_head_dim]->[bs,num_heads,seq_len,rope_head_dim]
        k_t_r=k_t_r.repeat(1,self.num_heads,1,1)
        #head_dim,rope_head_dim拼接
        k = torch.cat([k_t_c, k_t_r], dim=-1)  
        # 注意力計算,[bs,num_heads,seq_len,seq_len]
        scores = torch.matmul(q, k.transpose(-1, -2))
        if mask is not None:
            scores = scores.masked_fill(mask == 0, -1e9)
        scores = torch.softmax(scores / (math.sqrt(self.head_dim) + math.sqrt(self.rope_head_dim)), dim=-1)
        scores = self.dropout(scores)
        #v_t_c和scores計算,擴展出num_heads維度
        v_t_c = v_t_c.reshape(bs, seq_len, self.num_heads, self.v_head_dim).transpose(1, 2)
        output = torch.matmul(scores, v_t_c)
        #壓縮num_head,送入最終統一映射層
        output = output.transpose(1, 2).reshape(bs, seq_len, -1)
        output = self.fc(output)
        output = self.res_dropout(output)
        return output
bs, seq_len, d_model = 4, 10, 512
h = torch.randn(bs, seq_len, d_model)
mla = MLA(d_model=d_model)
output = mla(h)

DeepSeek沒有給出MLA與其他幾個注意力機制對比的實驗結果,但是結果導向來看,MLA的KV緩存大幅減少,大幅提高模型推理速度,在減少資源消耗的同時,保持甚至提升模型性能。

五、總結

從MHA到MQA、GQA,再到MLA,注意力機制的演變展示了在效率與性能之間不斷優化的軌跡。MLA通過創新的KV緩存壓縮和恢復機制,實現了在資源消耗、推理速度和模型性能之間的最佳平衡,為大語言模型的高效部署和應用提供了新的可能性。

[1]MHA: Attention Is All You Need(https://arxiv.org/pdf/1706.03762)

[2]MQA: Fast Transformer Decoding: One Write-Head is All You Need(https://arxiv.org/pdf/1911.02150)

[3]GQA: Training Generalized Multi-Query Transformer Models from Multi-Head Checkpoints(https://arxiv.org/pdf/2305.13245)

[4]MLA:https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf


責任編輯:龐桂玉 來源: 小白學AI算法
相關推薦

2025-02-10 00:00:55

MHAValue向量

2025-01-16 09:20:00

AI論文模型

2024-04-03 14:31:08

大型語言模型PytorchGQA

2024-10-31 10:00:39

注意力機制核心組件

2024-06-28 08:04:43

語言模型應用

2025-02-25 10:03:20

2025-02-14 11:22:34

2025-06-03 08:43:00

2018-08-26 22:25:36

自注意力機制神經網絡算法

2020-09-17 12:40:54

神經網絡CNN機器學習

2025-02-24 11:31:33

2023-05-05 13:11:16

2025-02-19 15:30:00

模型訓練數據

2024-09-19 10:07:41

2025-02-25 10:21:15

2025-09-29 18:51:01

2024-12-09 00:00:10

2025-10-16 09:00:00

大模型

2025-10-14 09:00:48

DeepSeek人工智能性能

2024-02-19 00:12:00

模型數據
點贊
收藏

51CTO技術棧公眾號

中文字幕人成乱码在线观看| 国产女无套免费视频| 窝窝社区一区二区| 欧美日韩一区在线| 欧美久久久久久久久久久久久久| 色一情一乱一区二区三区| 日韩福利视频导航| 欧美另类高清videos| 9.1成人看片免费版| 综合久久伊人| 精品久久久久久久久久久| 亚洲综合欧美日韩| 天堂中文在线资源| 国内精品伊人久久久久av一坑| 久久男人av资源网站| 免费看的黄色录像| 欧美高清视频看片在线观看 | 日本在线观看视频网站| 欧美少妇性xxxx| 亚洲国产中文字幕在线观看| 一级黄色特级片| 欧美aa在线观看| 一区二区三区日韩| 亚洲欧美久久久久一区二区三区| 天天干视频在线| 国产精品一区专区| 国产精品一区二区三区毛片淫片| 日韩欧美大片在线观看| 亚洲精品一区二区在线看| 国产视频精品自拍| 久久精品女同亚洲女同13| 美国十次综合久久| 欧美人体做爰大胆视频| 国产精品无码av无码| 亚洲啊v在线| 午夜精品爽啪视频| 国产xxxx振车| 在线免费观看的av| 中文字幕一区不卡| 亚洲欧美日韩国产yyy| 韩国中文免费在线视频| 99久久免费精品| 国内精品**久久毛片app| 精品国自产在线观看| 国内精品第一页| 成人黄色在线观看| 97精品人妻一区二区三区| 久久成人免费网| 国产日本欧美一区| 国产精品久久久久久久免费| 久久99精品国产麻豆婷婷| 国产精品久久久久高潮| 亚洲永久精品一区| 日韩电影免费一区| 国产精品视频网| 一级黄色a视频| 久久精品二区亚洲w码| 国产精品一香蕉国产线看观看| 中文字幕理论片| 蜜臀久久99精品久久久画质超高清| 国产精品高潮呻吟视频 | 日韩欧美一区二区三区在线| 少妇愉情理伦片bd| 亚洲91网站| 亚洲成人网久久久| 黄色短视频在线观看| 亚欧洲精品视频在线观看| 日韩精品在线第一页| 99久久久无码国产精品衣服| 人人狠狠综合久久亚洲婷婷| 久久精品视频亚洲| 精品在线视频免费观看| 国产精品日韩| 国产九九精品视频| 亚洲av无码一区二区乱子伦 | 亚洲黄色免费视频| 日韩av有码| 欧美日韩第一页| 亚洲天堂av片| 开心九九激情九九欧美日韩精美视频电影| 成人欧美在线观看| 韩国中文字幕hd久久精品| 99精品国产视频| 午夜精品一区二区三区在线观看 | 玉米视频成人免费看| 久久国产精品视频在线观看| 久久uomeier| 51精品国自产在线| 国产视频精品视频| 欧美视频网址| 久久久在线视频| 久久久久久亚洲av无码专区| 国产精品一品视频| 麻豆91蜜桃| 国产在线激情| 欧美性黄网官网| 国产三级精品三级在线| 欧美美女啪啪| 精品国产依人香蕉在线精品| 色网站在线播放| 麻豆久久一区二区| 精品一区二区三区免费毛片| 婷婷视频在线| 狠狠色香婷婷久久亚洲精品| 天天干天天av| 亚洲三级性片| 色综合久久久久久中文网| 日本三级一区二区三区| 成人av在线播放网址| 伊人久久大香线蕉综合75| 麻豆mv在线看| 日韩视频永久免费| 黄色国产在线播放| 国产精品毛片| 国产高清精品一区| 超碰在线无需免费| 欧美中文一区二区三区| 国产一级二级视频| 欧美国内亚洲| 国产日韩综合一区二区性色av| 日本一区二区三区在线观看视频| 亚洲精品一二三区| 一区二区三区视频网| 亚瑟一区二区三区四区| 欧美精品videosex极品1| 国产情侣av在线| 欧美国产综合色视频| 黄色a级片免费| 久久精品福利| 国内精品久久影院| 性少妇videosexfreexxx片| 中文字幕在线播放不卡一区| 欧美自拍小视频| 蜜桃a∨噜噜一区二区三区| 性欧美xxxx交| 日本高清视频网站| 一区二区久久久| 手机在线观看日韩av| 香蕉久久网站| 成人午夜在线影院| 国产在线观看av| 欧美精品1区2区| 国产中文字幕久久| 久草这里只有精品视频| 一区二区三区我不卡| 九九久久国产| 久久精品人人爽| 国产又粗又长又黄| 亚洲欧美日韩综合aⅴ视频| av污在线观看| 羞羞色午夜精品一区二区三区| 国产日韩精品在线观看| 精品麻豆一区二区三区| 欧美久久久久免费| 永久久久久久久| 国产福利不卡视频| 蜜臀av无码一区二区三区| 老司机凹凸av亚洲导航| 欧美在线一级视频| 国产女人在线视频| 欧美乱妇一区二区三区不卡视频| 五月天免费网站| 国产精品亚洲专一区二区三区 | 日韩一区二区三区电影| 青青草激情视频| 成人免费毛片嘿嘿连载视频| a在线视频观看| 免费短视频成人日韩| 国产精品第七十二页| 国产激情视频在线观看| 亚洲精品一区二区三区香蕉 | 免费毛片在线看片免费丝瓜视频 | 精品不卡视频| 欧美亚州在线观看| 婷婷成人av| 欧美高清一级大片| 男男电影完整版在线观看| 欧美午夜精品免费| 青娱乐国产在线视频| 久久综合色婷婷| 91精品999| 在线看片日韩| 亚洲精品免费在线看| 欧州一区二区三区| 欧美一区二区三区图| 欧美精品电影| 日韩精品极品在线观看播放免费视频| 欧美人一级淫片a免费播放| 亚洲视频一二区| 日本免费福利视频| 精品亚洲国内自在自线福利| 99在线观看视频免费| 精品视频免费| 国产精品裸体一区二区三区| 欧美无毛视频| 色综合五月天导航| 97电影在线看视频| 亚洲国产成人久久综合一区| 在线免费av片| 欧美日韩国产在线| 午夜精品一区二区三区视频| 久久这里只有精品6| 在线a免费观看| 天堂一区二区在线| 国产夫妻自拍一区| 日韩国产一区| 欧美一区二区视频在线| www国产精品| 91精品视频在线播放| 9i看片成人免费高清| 欧美高清无遮挡| 日本美女高清在线观看免费| 亚洲男人7777| 日本美女一级片| 日韩欧美专区在线| 一级黄色片视频| 一本一道久久a久久精品| 国产一二三四在线| 亚洲日本在线看| gv天堂gv无码男同在线观看| 97久久精品人人爽人人爽蜜臀| 中文字幕欧美视频| 捆绑紧缚一区二区三区视频| 黑森林精品导航| 久久久精品性| 欧美日韩黄色一级片| 狠狠88综合久久久久综合网| 欧美a级黄色大片| 91偷拍一区二区三区精品| 欧美尤物一区| 亚洲桃色综合影院| 精品999在线观看| theporn国产在线精品| 亚洲自拍偷拍区| 电影91久久久| 91网站在线免费观看| 4438五月综合| 91精品啪在线观看麻豆免费| 成人在线视频www| 114国产精品久久免费观看| 午夜不卡一区| 91精品国产自产在线观看永久| 国产一区高清| 国产欧美日韩丝袜精品一区| 成人精品国产亚洲| 国产精品一香蕉国产线看观看| 欧美亚洲综合视频| 成人欧美一区二区三区在线湿哒哒| 欧美极品在线| 亚洲专区在线视频| 51社区在线成人免费视频| 国产高清在线一区| 久久久久观看| 欧美日韩精品不卡| 欧美人与牛zoz0性行为| 视频一区视频二区视频三区视频四区国产 | 一本色道久久综合精品竹菊| 国产又黄又猛又粗又爽| 日本精品视频一区二区| 一本色道久久综合熟妇| 91精品国产色综合久久不卡电影| 精品人妻一区二区三区麻豆91 | 8x福利精品第一导航| 特级西西444www大胆免费看| 欧美精品一二三| 精品久久无码中文字幕| 欧美精品一区二区三区一线天视频| 视频一区 中文字幕| 精品亚洲国产视频| 日韩在线资源| 欧美精品激情在线| 女生影院久久| 成人黄色网免费| 欧美性生活一级片| 香蕉久久免费影视| 国产精品大片免费观看| 成人一级片网站| 韩国欧美国产1区| 成人区人妻精品一区二| 日本一二三四高清不卡| 婷婷久久综合网| 欧美日韩一区二区在线| 国产尤物视频在线观看| 亚洲成**性毛茸茸| 97电影在线| 97精品视频在线观看| 伦一区二区三区中文字幕v亚洲| av成人在线电影| 精品久久一区| 欧美午夜性视频| 免费成人你懂的| 欧美极品jizzhd欧美仙踪林| 国产欧美日韩视频一区二区| 精品少妇久久久久久888优播| 色婷婷av一区二区三区软件| 亚洲爆乳无码一区二区三区| 一本一道久久a久久精品逆3p | 国产精品日韩专区| 福利电影一区| 色爽爽爽爽爽爽爽爽| 久久一综合视频| 国产精品一区二区在线免费观看| 国产欧美精品一区二区三区四区 | 欧美精选午夜久久久乱码6080| 午夜精品久久久久久久99| 国产亚洲精品美女久久久久| 黄色的视频在线观看| 国产精品美女免费视频| 欧美亚洲国产日韩| 国产高清www| 久久99精品视频| 人妻aⅴ无码一区二区三区 | 少妇人妻在线视频| 韩国精品久久久| 亚洲一二三四视频| 色婷婷久久99综合精品jk白丝| 欧美 日韩 国产 在线| 久久成人免费视频| 国产成人精品一区二区三区免费| 久久精品日产第一区二区三区乱码| 欧美久久视频| 九一精品久久久| 国产精品人成在线观看免费| 欧美激情黑白配| 日韩精品在线影院| av资源在线| 国产日韩三区| 亚洲激精日韩激精欧美精品| 亚洲熟女乱综合一区二区| 国产精品系列在线| 黄色av一级片| 亚洲男人的天堂在线播放| 国产伦久视频在线观看| 国产久一道中文一区| 黄色日韩精品| 国产不卡一二三| 亚洲大型综合色站| 免费观看黄一级视频| 国产69精品久久久久9| 国产精品18hdxxxⅹ在线| 手机看片日韩国产| 久久99国产精品免费网站| 又色又爽的视频| 欧美久久高跟鞋激| 亚洲奶水xxxx哺乳期| 成人免费看片网站| 亚洲一级一区| 成人免费无码大片a毛片| 精品国产31久久久久久| 日本人妖在线| 国产成人精品综合久久久| 精品日韩免费| 天天色天天综合网| 尤物av一区二区| 天天操天天干天天舔| 91av视频在线免费观看| 亚洲瘦老头同性70tv| 嫩草影院国产精品| 亚洲欧美在线视频| 亚洲爱情岛论坛永久| 91国自产精品中文字幕亚洲| 亚洲成在人线免费观看| 91看片在线免费观看| 亚洲欧美综合色| 免费观看黄色一级视频| 欧美一级大片在线观看| 奇米影视亚洲| 苍井空张开腿实干12次| 岛国av一区二区| 在线观看精品一区二区三区| 96精品久久久久中文字幕| 亚洲国产三级| 日本爱爱爱视频| 欧美一区二区三区爱爱| 九色porny自拍视频在线观看 | 国产一区电影| 91免费电影网站| 亚洲色诱最新| 一本色道久久88| 亚洲精品一线二线三线无人区| 亚洲成av在线| 青青草综合在线| 久久久影视传媒| 国产99久一区二区三区a片| 97婷婷涩涩精品一区| 成人三级视频| 日韩成人av一区二区| 欧美日韩一区小说| 视频在线这里都是精品| 奇米精品在线| 成人性生交大片免费看中文| 久久影视中文字幕| 国内精品久久影院| 国产精品久久久久久久| 美国黄色一级毛片| 日韩欧美精品三级| 91九色综合| 国产乱子夫妻xx黑人xyx真爽| 亚洲情趣在线观看| 国产在线中文字幕|