精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

新聞 人工智能
近日,復旦大學計算機科學技術學院邱錫鵬教授團隊對種類繁多的 X-former 進行了綜述。首先簡要介紹了 Vanilla Transformer,提出 X-former 的新分類法。接著從架構修改、預訓練和應用三個角度介紹了各種 X-former。最后概述了未來研究的一些潛在方向。

[[405284]]

 自 2017 年 6 月谷歌發布論文《Attention is All You Need》后,Transformer 架構為整個 NLP 領域帶來了極大的驚喜。在誕生至今僅僅四年的時間里,Transformer 已經成為自然語言處理領域的主流模型,基于 Transformer 的預訓練語言模型更是成為主流。

隨著時間的推移,Transformer 還開始了向其他領域的跨界。得益于深度學習的發展,Transformer 在計算機視覺(CV)和音頻處理等許多人工智能領域已然殺瘋了,成功地引來了學界和業界研究人員的關注目光。到目前為止,研究者已經提出了大量且種類駁雜的 Transformer 變體(又名 X-former),但是仍然缺失系統而全面的 Transformer 變體文獻綜述。

去年,谷歌發布的論文《Efficient Transformers: A Survey》對高效 Transformer 架構展開了綜述,但主要關注 attention 模塊的效率問題,對 Transformer 變體的分類比較模糊。

近日,復旦大學計算機科學技術學院邱錫鵬教授團隊對種類繁多的 X-former 進行了綜述。首先簡要介紹了 Vanilla Transformer,提出 X-former 的新分類法。接著從架構修改、預訓練和應用三個角度介紹了各種 X-former。最后概述了未來研究的一些潛在方向。

論文鏈接:
https://arxiv.org/pdf/2106.04554.pdf

回顧 Transformer 的發展

Transformer 最初是作為機器翻譯的序列到序列模型提出的,而后來的研究表明,基于 Transformer 的預訓練模型(PTM) 在各項任務中都有最優的表現。因此,Transformer 已成為 NLP 領域的首選架構,尤其是 PTM。除了語言相關的應用,Transformer 還被用于 CV、音頻處理,甚至是化學和生命科學。由于取得了成功,過去幾年研究者又提出了各種 Transformer 變體(又名 X-former)。這些 X-former 主要從以下三個不同的角度改進了最初的 Vanilla Transformer

模型效率。應用 Transformer 的一個關鍵挑戰是其處理長序列時的效率低下,這主要是由于自注意力(self-attention)模塊的計算和內存復雜度。改進的方法包括輕量級 attention(例如稀疏 attention 變體)和分而治之的方法(例如循環和分層機制);

模型泛化。由于 Transformer 是一種靈活的架構,并且對輸入數據的結構偏差幾乎沒有假設,因此很難在小規模數據上進行訓練。改進方法包括引入結構偏差或正則化,對大規模未標記數據進行預訓練等;

模型適配。這一系列工作旨在使 Transformer 適應特定的下游任務和應用程序。

雖然可以根據上述角度來組織 X-former,但許多現有的 X-former 可能會解決一個或幾個問題。例如,稀疏 attention 變體不但降低了計算復雜度,而且在輸入數據上引入了結構先驗以緩解小數據集上的過度擬合問題。因此,主要根據 X-former 改進 Vanilla Transformer 的方式進行分類更加有條理:架構修改、預訓練和應用。考慮到本次綜述的受眾可能來自不同的領域,研究者主要關注的是通用架構變體,僅簡要討論了預訓練和應用方面的具體變體。

Vanilla Transformer

架構

Vanilla Transformer 是一個序列到序列的模型,由一個編碼器和一個解碼器組成,二者都是相同的塊 組成的堆棧。每個編碼器塊主要由一個多頭 self-attention 模塊和一個位置前饋網絡(FFN)組成。為了構建更深的模型,每個模塊周圍都采用了殘差連接,然后是層歸一化模塊。與編碼器塊相比,解碼器塊在多頭 self-attention 模塊和位置方面 FFN 之間額外插入了 cross-attention 模塊。此外,解碼器中的 self-attention 模塊用于防止每個位置影響后續位置。Vanilla Transformer 的整體架構如下圖所示:

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

用法

通常有三種不同的方式使用 Transformer 架構:

使用編碼器 - 解碼器,通常用于序列到序列建模,例如神經機器翻譯;

僅使用編碼器,編碼器的輸出用作輸入序列的表示,通常用于分類或序列標記問題;

僅使用解碼器,其中也移除了編碼器 - 解碼器 cross-attention 模塊,通常用于序列生成,例如語言建模。

Transformer 變體的的分類

截止目前,領域研究人員從架構修改類型、預訓練方法和應用這三個方面提出了各種基于 vanilla Transformer 的變體模型。下圖顯示了 這些變體模型的類別:

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

而下圖顯示了本文研究者的分類和一些代表性模型:

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

Attention 模塊

Self-attention 在 Transformer 中非常重要,但在實際應用中存在兩個挑戰:

復雜度。self-attention 的復雜度為 O(T^2·D)。因此,attention 模塊在處理長序列時會遇到瓶頸;

結構先驗。Self-attention 對輸入沒有假設任何結構性偏差,甚至指令信息也需要從訓練數據中學習。因此,無預訓練的 Transformer 通常容易在中小型數據集上過擬合。

Attention 機制的改進可以分為以下幾個方向:

稀疏 attention。將稀疏偏差引入 attention 機制可以降低了復雜性;

線性化 attention。解開 attention 矩陣與內核特征圖,然后以相反的順序計算 attention 以實現線性復雜度;

原型和內存壓縮。這類方法減少了查詢或鍵值記憶對的數量,以減少注意力矩陣的大小;

低階 self-Attention。這一系列工作捕獲了 self-Attention 的低階屬性;

Attention 與先驗。該研究探索了用先驗 attention 分布來補充或替代標準 attention;

改進多頭機制。該系列研究探索了不同的替代多頭機制。

稀疏 attention

在標準的 self-attention 機制中,每個 token 都需要 attend 所有其他的 token。然而,據觀察,對于經過訓練的 Transformer,學習到的 attention 矩陣 A 在大多數數據點上通常非常稀疏。因此,可以通過結合結構偏差來限制每個查詢 attend 的查詢鍵對的數量來降低計算復雜度。

從另一個角度來看,標準 attention 可以被視為一個完整的二部圖,其中每個查詢從所有內存節點接收信息并更新其表示。而稀疏 attention 可以看成是一個稀疏圖,其中刪除了節點之間的一些連接。基于確定稀疏連接的指標,研究者將這些方法分為兩類:基于位置和基于內容的稀疏 attention。

原子稀疏 attention

基于位置的稀疏 attention 之一是原子稀疏 attention,如下圖所示主要有五種模式。彩色方塊表示計算的 attention 分數,空白方塊表示放棄的 attention 分數。

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

復合稀疏 attention

而另一種基于位置的稀疏 attention 是復合稀疏 attention,下圖顯示了其五種主要模式,其中紅色框表示序列邊界。

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

擴展稀疏 attention

除了上述模式,一些現有的研究已經針對特定數據類型探索了擴展稀疏模式。下圖(a)展示了全局 attention 擴展的抽象視圖,其中全局節點是分層組織的,任何一對 token 都與二叉樹中的路徑相連。紅色框表示查詢位置,橙色節點 / 方塊表示查詢關注相應的 token。

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

還有一些視覺數據的擴展。Image Transformer 探索了兩種類型的 attention:

按光柵掃描順序展平圖像像素,然后應用塊局部稀疏 attention;

2D 塊局部 attention,其中查詢塊和內存塊直接排列在 2D 板中,如上圖 (b) 所示。

視覺數據稀疏模式的另一個例子,Axial Transformer 在圖像的每個軸上應用獨立的 attention 模塊。每個 attention 模塊沿一個軸混合信息,同時保持另一個軸的信息獨立,如上圖 (c) 所示。這可以理解為按光柵掃描順序水平和垂直展平圖像像素,然后分別應用具有圖像寬度和高度間隙的跨步 attention。

線性化 attention

下圖顯示了標準 self-attention 和線性化 linear-attention 的復雜度區別。

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

查詢原型和內存壓縮

除了使用稀疏 attention 或基于內核的線性化 attention 之外,還可以通過減少查詢或鍵值對的數量來降低 attention 的復雜度,這分別引向了查詢原型和內存壓縮的方法。

在查詢原型設計中,幾個查詢原型作為計算 attention 分布的主要來源。該模型要么將分布復制到表示的查詢的位置,要么用離散均勻分布填充這些位置。

下圖 (a) 說明了查詢原型的計算流程。除了通過查詢原型減少查詢數量外,還可以通過在應用 attention 機制之前減少鍵值對的數量(壓縮鍵值內存)來降低復雜度,如下圖(b)所示。

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

先驗 attention

Attention 機制通常將預期值輸出為向量的加權和,其中權重是值上的 attention 分布。傳統上,分布是從輸入生成的,例如 Vanilla Transformer 中的 softmax(QK⊤)。一般情況下,attention 分布也可以來自其他來源,也就是先驗。先驗注意力分布可以補充或替代輸入產生的分布。Attention 的這種表述可以抽象為具有先驗 attention,如下圖所示。在大多數情況下,兩個 attention 分布的融合可以通過在應用 softmax 之前計算對應于先驗 attention 和生成 attention 的分數的加權和來完成。

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

改進的多頭機制

多頭 attention 的吸引力在于能夠共同 attend 來自不同位置的不同表示子空間的信息。然而,沒有機制可以保證不同的 attention 頭確實地捕捉到不同的特征。

如下圖所示,多頭機制下三種跨度屏蔽函數()。橫軸代表距離,縱軸代表掩碼值。

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

其他模塊級修改

位置的重要性

驗證卷積和循環網絡不是置換等變是很簡單的。然而,Transformer 中的 self-attention 模塊和位置前饋層都是置換等變的,這在建模問題時可能是一個問題。例如,在對文本序列建模時,單詞的順序很重要,因此在 Transformer 架構中正確編碼單詞的位置至關重要。因此,需要額外的機制將位置信息注入到 Transformer 中。一種常見的設計是首先使用向量表示位置信息,然后將向量作為附加輸入注入模型。

層的歸一化

層歸一化 ( Layer Normalization, LN) 以及殘差連接被認為是一種穩定深度網絡訓練的機制(如減輕不適定梯度和模型退化)。在 Vanilla Transformer 中,LN 層位于殘差塊之間,被稱為 post-LN 。后來的 Transformer 實現將 LN 層放在 attention 或 FFN 之前的殘差連接內,在最后一層之后有一個額外的 LN 來控制最終輸出的大小,即 pre-LN。Pre-LN 已被許多后續研究和實現所采用。pre-LN 和 post-LN 的區別如下圖所示。

Transformer模型有多少種變體?復旦邱錫鵬教授團隊做了全面綜述

位置方面的 FFN

盡管很簡單,但位置前饋網絡 (feed-forward network, FFN) 層對于 Transformer 實現良好性能至關重要。研究者觀察到簡單地堆疊 self-attention 模塊會導致等級崩潰問題以及 token 均勻性歸納偏差,而前饋層是緩解此問題的重要構建塊之一。本節探索了研究者對 FFN 模塊的修改。

架構級修改

在本章中,研究者介紹了架構層面的 X-former 變體模型。

輕量級 Transformer

除了在模塊層面為減輕計算開銷所做的努力外,領域內還出現了一些在更高層面進行修改的輕量級 Transformer 模型,如 Lite Transformer、Funnel Transformer 和 DeLighT。

Strengthening Cross-Block Connectivity

在 deep Transformer 編碼器 - 解碼器模型中,解碼器中的 cross-attention 模塊僅利用編碼器的最終輸出,因此誤差信號必須沿著編碼器的深度進行遍歷。這使得 Transformer 更易于受到梯度消失等優化問題的影響。

Transparent Attention [8] 使用每個 cross-attention 模塊中所有編碼器層(包括嵌入層)上的編碼器表示的加權和。對于第 j 個編碼器塊,cross-attention 應表示如下:

Feedback Transformer[34] 提出在 Transformer 解碼器添加反饋機制,其中每個位置均關注來自所有層的歷史表示的加權和:

自適應計算時間

與大多數神經模型一樣,Vanilla Transformer 使用固定(學習的)計算程序來處理每個輸入。一個有趣且有發展潛力的修改是使計算時間以輸入為條件,即在 Transformer 模型中引入自適應計算時間(Adaptive Computation Time, ACT)。

如下圖 12(a)所示,Universal Transformer (UT) 結合了深度循環(recurrence-over-depth)機制,該機制使用一個在深度上共享的模塊來迭代地改進所有符號的表示;圖 12(b)中,Conditional Computation Transformer (CCT) 在每個自注意力和前饋層添加一個門控模塊來決定是否跳過當前層;圖 12(c)中,與 UT 中使用的動態停機機制類似,有一條工作線專門用于調整每個輸入的層數以實現良好的速度 - 準確率權衡,這稱為「提前退出機制」(early exit mechanism)。

利用「分而治之」策略的 Transformer

自注意力對序列長度的二次復雜度會顯著限制一些下游任務的性能。研究者確定了兩類有具有代表性的方法,分別是循環和層級 Transformer,具體如下圖 13 所示

在循環 Transformer 中,維護一個高速緩存(cache memory)用來合并歷史信息。在處理一段文本時,該網絡從緩存中的讀取作為額外輸入。處理完成后,網絡通過簡單地復制隱藏狀態或使用更復雜的機制來寫入內存。

層級 Transformer 將輸入分層分解為更細粒度的元素。低級特征首先被饋入到 Transformer 編碼器,產生輸出表示,然后使用池化或其他操作來聚合以形成高級特征,然后通過高級 Transformer 進行處理。

 

責任編輯:張燕妮 來源: 機器之心Pro
相關推薦

2023-09-12 17:52:00

模型智能

2025-09-01 09:10:00

2024-03-04 12:32:20

模型訓練

2025-06-16 08:33:00

2023-06-20 13:38:22

2023-10-23 12:43:05

模型訓練

2018-04-25 12:12:31

存儲,半導體,相變存儲

2019-11-07 21:06:31

邱躍鵬云計算無服務器

2023-06-03 20:51:09

2020-12-21 09:44:06

Google Transforme技術

2025-07-01 09:07:00

2023-09-18 08:50:51

智能模型

2024-12-24 13:01:12

2012-09-24 11:01:12

云計算數據中心

2021-03-03 11:13:30

APP手機打車軟件

2010-09-09 15:45:15

IT認證

2019-05-21 12:33:32

騰訊云邱躍鵬云計算

2023-10-18 13:32:00

AI數據

2023-10-07 13:17:44

2025-09-08 09:02:00

點贊
收藏

51CTO技術棧公眾號

精品国产一区二区三区| 香蕉视频国产在线观看| 国产精品porn| 日韩毛片在线观看| www亚洲成人| 天天色天天射天天综合网| av在线综合网| 国产美女高潮久久白浆| 久操免费在线视频| 视频一区欧美| 欧美一级精品在线| av片中文字幕| 91一区二区三区在线| av在线不卡电影| 国产日本欧美一区二区三区在线| 男女免费视频网站| 精品视频国产| 精品国产a毛片| 亚洲另类第一页| 91福利在线尤物| 国产精品国产三级国产三级人妇| 国产伦精品一区二区三区视频黑人 | 少妇人妻无码专区视频| 国产视频福利在线| 成人黄色一级视频| 成人精品一区二区三区电影免费| 色婷婷av国产精品| 欧美另类综合| 日日狠狠久久偷偷四色综合免费| 男女黄床上色视频| 18国产精品| 欧美久久久久久久久中文字幕| www国产精品内射老熟女| 永久免费网站在线| 国产精品区一区二区三区| 久久精品aaaaaa毛片| 国产ts变态重口人妖hd| 全国精品久久少妇| 欧美一区二粉嫩精品国产一线天| 欧美国产日韩在线观看成人| 日韩综合一区| 亚洲人成在线电影| 日本黄色片在线播放| 波多野结衣在线一区二区| 欧美三级电影在线观看| 玩弄japan白嫩少妇hd| 黄色在线观看视频网站| 一区二区三区免费| 日韩人妻一区二区三区蜜桃视频| 国产精品无码一区二区在线| 色在线观看视频| 日韩精品永久网址| 中文字幕免费精品一区高清| 亚洲а∨天堂久久精品2021| 九热爱视频精品视频| 日韩精品在线观| 美女又爽又黄视频毛茸茸| 精品亚洲自拍| 国产视频精品久久久| 成人手机在线免费视频| 偷拍自拍一区| 亚洲欧洲午夜一线一品| 微拍福利一区二区| 成人黄色av| 爽爽爽爽爽爽爽成人免费观看| 国产又粗又黄又猛| 欧美国产一级| 欧美精品一区二区免费| 久草网站在线观看| 亚洲私拍自拍| 欧洲永久精品大片ww免费漫画| 精品不卡一区二区| 美国三级日本三级久久99| 国产精品一区二区久久久久| 亚洲一区二区三区高清视频| 国产一区二区三区在线看麻豆| 99se婷婷在线视频观看| 欧美特黄一级视频| 久久久久久一二三区| 亚洲精品一卡二卡三卡四卡| www在线视频| 亚洲午夜精品17c| 免费高清在线观看免费| 91在线亚洲| 欧美一区二区三区视频| 国产老熟女伦老熟妇露脸| 国产成人手机高清在线观看网站| 丝袜一区二区三区| 久久久久99精品成人片毛片| 亚洲综合国产| 成人国产精品久久久| 亚洲精品福利网站| 国产日韩欧美一区二区三区乱码 | 欧美成人三级视频| 国产综合网站| 国产成人精品午夜| 99久久精品国产色欲| 91欧美一区二区| 亚洲精品一区二区三区樱花| 青青草原av在线| 欧美性xxxxhd| 久久精品国产99久久99久久久| 大桥未久女教师av一区二区| 亚洲性av网站| 特级片在线观看| 狂野欧美一区| 99久久国产免费免费| 男人久久精品| 一区二区三区高清不卡| 亚洲欧美日韩人成在线播放| 香蕉乱码成人久久天堂爱免费| 欧美a级黄色大片| 亚洲天堂电影| 日韩一区二区三区av| 一区二区黄色片| 黑人一区二区| 国产日韩欧美在线看| 手机av免费在线观看| 亚洲欧洲av在线| 成人精品小视频| 国产91精品入| 欧美美最猛性xxxxxx| 精品国偷自产一区二区三区| 嫩草研究院在线观看| 亚洲最新视频在线播放| 亚洲免费一级视频| 亚洲国产精品嫩草影院久久av| 久久国产精品电影| av日韩在线看| 精品三级久久| 欧美mv和日韩mv国产网站| 福利视频第一页| 日韩精品一二三| 欧美人妖巨大在线| 欧美成人精品欧美一级乱| 538任你躁精品视频网免费| 日韩视频―中文字幕| 免费一级a毛片| 2021国产精品久久精品| 亚洲精品99999| a级片在线观看视频| 亚洲综合婷婷| 亚洲自拍偷拍区| 国产三级在线播放| 国产成人免费视频一区| 91精品国产沙发| 欧美性受xxxx狂喷水| 亚洲国产另类精品专区| 男人网站在线观看| 亚洲人成高清| 色94色欧美sute亚洲线路一久| 欧美日韩在线一| 久久动漫网址| 欧洲成人在线观看| 裸体xxxx视频在线| 91高清视频在线| 国产精品护士白丝一区av| 久久人人97超碰人人澡爱香蕉| heyzo中文字幕在线| 精品国产免费视频| 国产在线观看免费视频今夜| 成人黄色在线看| 91视频最新入口| 深爱激情综合| 国产日韩欧美视频在线| 哥也色在线视频| 日韩欧美在线网站| 色播视频在线播放| 久久人人97超碰com| 欧美伦理视频在线观看| 日韩不卡一区| 99国产超薄肉色丝袜交足的后果 | 加勒比视频一区| 欧美性受xxx| eeuss影院www在线观看| 欧美福利一区二区| 久久免费视频精品| 久久综合九色综合欧美98| 91最新在线观看| 91精品电影| 激情视频在线观看一区二区三区| 欧美日韩免费看片| 久久精品国产久精国产思思| 亚洲精品久久久久avwww潮水| 日韩精品免费视频一区二区三区 | 国产人妻精品午夜福利免费| 黄色亚洲大片免费在线观看| 欧美午夜精品久久久久久蜜| 99热播精品免费| 欧美成人午夜剧场免费观看| 天堂а√在线8种子蜜桃视频| 欧美视频在线不卡| 国产女人被狂躁到高潮小说| 91一区二区三区在线观看| 亚洲色图久久久| 最新国产拍偷乱拍精品 | 黄色在线视频观看网站| 国产日韩一区二区三区在线播放| 全亚洲最色的网站在线观看| 欧美精品日韩少妇| 亚洲第一综合天堂另类专| 韩国中文字幕av| 亚洲女同志亚洲女同女播放| 欧美日韩国产限制| 三级黄色录像视频| 97久久人人超碰| 亚洲综合20p| 免费在线日韩av| 伊人再见免费在线观看高清版 | 久久久久久久福利| 国产日本欧洲亚洲| 中国黄色片视频| 久久99国产精品久久| 91九色在线观看视频| 中文在线日韩| 亚洲国产激情一区二区三区| 狼人精品一区二区三区在线| 国产日韩中文字幕| 天堂社区 天堂综合网 天堂资源最新版 | 久久国产66| 伊人久久在线观看| 成人系列视频| 欧美精品一区二区三区在线看午夜| 久久久久九九精品影院| 国产精品久久久久久一区二区| 国产精品一区hongkong| 精品久久久av| 在线激情小视频| 日韩av在线导航| 亚洲av少妇一区二区在线观看 | 亚洲一二三四区不卡| 免费精品在线视频| ww久久综合久中文字幕| 亚洲视频视频在线| 十八禁一区二区三区| 国产欧美激情| 91av视频导航| 国产三级视频在线播放线观看| 国产91亚洲精品久久久| 国产欧美日韩视频在线观看| 91蝌蚪视频在线| 麻豆精品一二三| 99视频在线免费| 久久九九免费| 国产亚洲综合视频| 亚洲一区二区网站| 精品久久久久久久久久中文字幕| 国产精品二区影院| 久久久久久久久久久综合| 综合国产在线| 亚洲精品日日夜夜| 久久久99爱| 日韩免费精品| 成人一区二区电影| 欧美videos粗暴| 国产精品视频精品视频| 久久久久久久少妇| 免费a级人成a大片在线观看| 亚洲性猛交xxxxwww| 国产永久av在线| 亚洲性无码av在线| 国产区av在线| 视频一区视频二区国产精品| 免费观看在线午夜影视| 久久成人精品电影| 在线电影福利片| 久久久噜噜噜久久久| av免费不卡| 欧洲亚洲在线视频| 黄色日韩网站| 亚洲a一级视频| 国产伦精品一区二区三区免费优势| 国产伦精品一区二区三区免| 蜜臀av免费一区二区三区| 日韩av高清| 午夜精品毛片| 免费特级黄色片| 午夜一区在线| 一女二男3p波多野结衣| 高潮精品一区videoshd| 欧美 变态 另类 人妖| 欧美激情在线一区二区三区| www.av免费| 午夜精品视频一区| 久久影视中文字幕| 日韩视频一区二区三区在线播放| 色屁屁草草影院ccyycom| 亚洲色图美腿丝袜| 午夜精品福利在线视频| 国产66精品| 欧美一区二区三区精美影视 | 欧美做爰啪啪xxxⅹ性| 一区二区三区久久| 看看黄色一级片| 全球最大av网站久久| 国产在线日韩在线| 久久悠悠精品综合网| 亚洲综合五月天| 午夜在线精品| 欧美色图校园春色| 国产亚洲午夜高清国产拍精品| 国产一区二区播放| 色呦呦网站一区| av网站在线观看免费| 亚洲人成五月天| 国产丝袜精品丝袜| 国产免费一区视频观看免费| 日韩aaa久久蜜桃av| 99热这里只有精品7| 亚洲欧美日本国产专区一区| 欧美日韩理论片| 日本一二三四高清不卡| 日韩精品一区二区三区国语自制| 欧美日韩在线免费视频| 亚洲 小说区 图片区 都市| 久久婷婷国产麻豆91天堂| 国产精品yjizz视频网| 亚洲free性xxxx护士hd| 精品日韩免费| 无码人妻h动漫| 国产河南妇女毛片精品久久久 | 91高清国产视频| 97久久精品人人做人人爽50路| 天天综合天天做| 欧美日韩国产一区| 免费黄色一级网站| 99在线观看免费视频精品观看| 国产精品久久久久久久99| 欧美激情一区二区| 成人小视频在线播放| 亚洲欧美日本精品| 中文字幕乱码在线播放| 国产亚洲欧美一区二区| 欧美一区亚洲| 亚洲第一区第二区第三区| 国产视频一区在线观看 | 精品视频一区二区三区免费| 天堂中文在线视频| 97视频com| 九色丨蝌蚪丨成人| 国产精品igao激情视频| 精品亚洲成a人| 特一级黄色录像| 欧美一区午夜视频在线观看| 黄色网页在线免费观看| 成人a在线观看| 我不卡伦不卡影院| 在线免费看污网站| 亚洲激情在线激情| 精品国精品国产自在久不卡| 欧美乱大交xxxxx另类电影| 日韩在线观看一区二区三区| 一本色道久久88亚洲精品综合| 国产在线麻豆精品观看| 一区二区三区四区五区| 欧美电影一区二区三区| 亚洲淫性视频| 国产精品对白一区二区三区| 国产精品国码视频| 一级欧美一级日韩片| 色综合久久久久综合体| 国产精品秘入口| 国产精品永久免费观看| 久久精品亚洲欧美日韩精品中文字幕| 激情在线观看视频| 亚洲国产aⅴ成人精品无吗| 亚洲人在线观看视频| 国产成人a亚洲精品| 水蜜桃精品av一区二区| 国内精品国产三级国产aⅴ久| 亚洲精品第1页| 日韩一级片免费视频| 欧美xxxx黑人又粗又长| 国产精品久久久久久久久影视| 精品亚洲成人| 午夜不卡福利视频| 亚洲国产成人高清精品| 手机福利在线| 亚洲一区二区精品| 日韩中文字幕观看| 26uuu另类亚洲欧美日本老年| 欧美精品momsxxx| 久久久久久久高清| 亚洲成人精品一区| 97电影在线观看| 99视频在线免费观看| 久久高清国产| 日韩黄色免费观看| 亚洲精品在线不卡| 国产精品视频一区二区三区综合| r级无码视频在线观看| 日本一区二区免费在线观看视频 | 国产精品综合不卡av| 一区二区三区在线| 无套内谢大学处破女www小说| 日本不卡的三区四区五区| 日韩欧美xxxx| 亚洲精品视频自拍| 看电影就来5566av视频在线播放| 147欧美人体大胆444|