精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Google綜述:細數(shù)Transformer模型的17大高效變種

開發(fā) 前端 新聞
這是一篇谷歌2020年9月份在arXiv發(fā)表的綜述論文 “Efficient Transformers: A Survey“,值得讀讀。

  [[358920]]

在NLP領域 transformer 已經(jīng)是成功地取代了RNN(LSTM/GRU),在CV領域也出現(xiàn)了應用,比如目標檢測和圖像加注,還有RL領域。這是一篇谷歌2020年9月份在arXiv發(fā)表的綜述論文 “Efficient Transformers: A Survey“,值得讀讀。

 

 

 

 

文章主要針對一類X-former模型,例如Reformer, Linformer, Performer, Longformer為例,這些對原版Transformer做了改進,提高了其計算和內(nèi)存的效率。

論文題目:

Efficient Transformers: A Survey

論文鏈接:

https://arxiv.org/pdf/2009.06732

Arxiv訪問慢的小伙伴也可以在【 夕小瑤的賣萌屋 】訂閱號后臺回復關鍵詞【 1220 】下載論文PDF~

Transformer回顧

self-attention是Transformer模型的關鍵定義特征。該機制可以看作是類似graph的歸納偏差(inductive bias),它可將序列中的所有token與基于相關的pooling操作相聯(lián)系。self-attention 的一個眾所周知的問題是quadratic級別的 時間和內(nèi)存復雜度 ,阻礙許多設置的模型規(guī)模化(scalability)。所以,最近提出了解決該問題的大量變型,這里將這類模型稱為 efficient Transformers 。

efficient self-attention模型在長序列建模的應用中至關重要,例如文檔、圖像和視頻通常都由相對大量的像素或token組成。因此,處理長序列的效率對于Transformers的廣泛采用至關重要。

如圖是一個標準的Transformer架構:

 

 

 

 

Transformer是通過將Transformer blocks彼此堆疊而形成的多層體系結構。Transformer blocks的特點包括 multi-head self-attention 機制、positionwise前饋網(wǎng)絡(feed-forward network)、層歸一化(LN)模塊和殘差連接器(residual connectors)。

Transformer模型的輸入通常是形狀為BxN的張量,其中B是批處理(batch)大小,N是序列長度。該輸入先穿過一個嵌入層,該層將每個one-hot token表示轉(zhuǎn)換為d-維的嵌入向量,即BxNxd。然后,新張量與位置編碼相加,并通過一個multi-head self-attention模塊。

位置編碼可以是正弦輸入形式或者可訓練的嵌入方式。multi-head self-attention模塊的輸入和輸出通過殘差連接器和層歸一化層(LN)模塊連接。然后,將multi-head self-attention模塊的輸出傳遞到兩層前饋網(wǎng)絡(FFN),類似于以殘差方式連接層歸一化(LN)模塊。

帶層歸一化模塊的殘差連接器定義為:

 

 

 

 

而在Multi-Head Self-Attention的單個head操作定義為:

 

 

 

 

Attention矩陣A = QK^T主要負責學習序列中token之間的校準分。這會推動self-attention的自我校準過程,從而token學習彼此之間的聚類。不過,這個矩陣計算是一個效率的瓶頸。

FFN的層操作定義為:

 

 

 

 

這樣整個Transformer block的操作定義是:

 

 

 

 

下面要注意的是Transformer模塊使用方式的不同。Transformer主要使用方式包括:(1) 編碼器 (例如用于分類),(2) 解碼器 (例如用于語言建模)和(3) 編碼器-解碼器 (例如用于機器翻譯)。

在編碼器-解碼器模式下,通常有多個multi-head self-attention模塊,包括編碼器和解碼器中的標準self-attention,以及允許解碼器利用來自解碼器的信息的編碼器-解碼器cross-attention。這影響了self-attention機制的設計。

在編碼器模式中,沒有限制或self-attention機制的約束必須是因果方式,即僅取決于現(xiàn)在和過去的token。

在編碼器-解碼器設置中,編碼器和編碼器-解碼器cross-attention可能是無因果方式,但解碼器的self attention必須是因果方式。設計有效的self attention機制,需要支持AR(auto-regressive)解碼的因果關系,這可能是一個普遍的限制因素。

Efficient Transformers

Efficient Transformers的分類如圖,其對應的方法在近兩年(2018-2020)發(fā)表的時間、復雜度和類別見表:

 

 

 

 

注:FP = Fixed Patterns/Combinations of Fixed Patterns, M = Memory, LP = Learnable Pattern, LR = Low Rank, KR = Kernel, RC = Recurrence.

除segment-based recurrence外,大多數(shù)模型的主要目標是對attention matrix做quadratic級別開銷近似。每種方法都將稀疏的概念應用于原密集的attention機制。

Fixed patterns(FP):self attention的最早改進是將視場限制為固定的、預定義模式(例如局部窗和固定步幅的塊模式)來簡化attention matrix。

  • Blockwise Patterns這種技術在實踐中最簡單的示例是blockwise(或chunking)范式,將輸入序列分為固定塊,考慮局部接受野(local receptive fields)塊。這樣的示例包括逐塊和/或局部attention。將輸入序列分解為塊可將復雜度從N^2降低到B^2(塊大小),且B << N,從而顯著降低了開銷。這些blockwise或chunking的方法可作為許多更復雜模型的基礎。

  • Strided patterns是另一種方法,即僅按固定間隔參與。諸如Sparse Transformer和/或Longformer之類的模型,采用“跨越式”或“膨脹式“視窗。

  • Compressed Patterns是另一條進攻線,使用一些合并運算對序列長度進行下采樣,使其成為固定模式的一種形式。例如,Compressed Attention使用跨步卷積有效減少序列長度。

Combination of Patterns (CP):其關鍵點是通過組合兩個或多個不同的訪問模式來提高覆蓋范圍。例如,Sparse Transformer 將其一半的頭部分配給模式,結合strided 和 local attention。類似地,Axial Transformer 在給定高維張量作為輸入的情況下,沿著輸入張量的單軸應用一系列的self attention計算。本質(zhì)上,模式組合以固定模式相同的方式降低了內(nèi)存的復雜度。但是,不同之處在于,多模式的聚集和組合改善了self attention機制的總覆蓋范圍。

Learnable Patterns (LP):對預定FP模式的擴展即可學習。毫不奇怪,使用可學習模式的模型旨在數(shù)據(jù)驅(qū)動的方式學習訪問模式。LP的關鍵是確定token相關性,將token分配給buckets 或者clusters。值得注意的是,Reformer引入了基于哈希的相似性度量,有效地將token聚類為chunks。類似地,Routing Transformer在token上采用在線的k-means聚類。同時,Sinkhorn排序網(wǎng)絡(Sorting Network)通過學習對輸入序列的blocks排序來顯露attention weight的sparsity。所有這些模型中,相似性函數(shù)與網(wǎng)絡的其它部分一起進行端到端訓練。LP的關鍵點仍然是利用固定模式(chunked patterns)。但是,此類方法學會對輸入token進行排序/聚類,即保持FP方法效率優(yōu)勢的同時,得到更優(yōu)的序列全局視圖。

Memory:另一種表現(xiàn)突出的方法,用一個side memory模塊,可以一次訪問多個token。通用形式是全局存儲器,能夠訪問整個序列。全局token充當記憶的一種形式,從輸入序列的token中學習聚集。這是最早在Set Transformers中引入的inducing points方法。這些參數(shù)通常被解釋為“memory”,并用作將來處理的臨時上下文信息。這可以看作是parameter attention的一種形式。全局內(nèi)存也用于ETC和Longformer。借著數(shù)量有限的內(nèi)存(或者inducing points),對輸入序列采用類似pooling操作進行壓縮,這是設計有效的self attention模塊時可以使用的技巧。

Low-Rank方法:另一種新興技術,利用self attention矩陣的低秩近似來提高效率。關鍵點是假設NxN矩陣的低秩結構。Linformer是此技術的經(jīng)典示例,將keys和values的長度維投影到較低維的表示形式(N-》 k)。不難發(fā)現(xiàn),由于NxN矩陣現(xiàn)在已分解為Nxk,因此該方法改善了self attention的存儲復雜性問題。

Kernels:另一個最近流行的提高Transformers效率的方法,通過核化(kernelization)查看attention機制。核的使用使self attention機制能夠進行巧妙的數(shù)學重寫,避免顯式地計算NxN矩陣。由于核是attention矩陣的一種近似形式,因此也可以視為Low Rank方法的一種。

Recurrence:blockwise方法的直接擴展是通過遞歸連接這些塊。Transformer-XL提出了一種segment-level 遞歸機制,該機制將多個segment和block連接起來。從某種意義上說,這些模型可以看作是FP模型。

內(nèi)存和計算復雜度分析

該綜述對以下17個方法進行了內(nèi)存和計算復雜度分析,即

1、 Memory Compressed Transformer :“Generating wikipedia by summarizing long sequences” 如圖

 

 

 

 

2、 Image Transformer :“Image Transformer” 如圖

 

 

 

 

3、 Set Transformer :“Set transformer: A framework for attention-based permutation-invariant neural networks“ 如圖

 

 

 

 

4、 Sparse Transformer :“Generating long sequences with sparse transformers”如圖

 

 

 

 

5、 Axial Transformer :“Axial attention in multidimensional transformers.“如圖

6、 Longformer :“Longformer: The long-document transformer“如圖

 

 

 

 

7、 Extended Transformer Construction (ETC):“Etc: Encoding long and structured data in transformers“如圖

 

 

 

 

8、 BigBird :“Big Bird: Transformers for Longer Sequences“如圖

 

 

 

 

9、 Routing Transformer :“Efficient content-based sparse attention with routing transformers“如圖

 

 

 

 

10、 Reformer :“Reformer: The efficient transformer“如圖

 

 

 

 

11、 Sparse Sinkhorn Transformer :“Sparse sinkhorn attention“如圖

 

 

 

 

12、 Linformer :“Hat: Hardware-aware transformers for efficient natural language processing“如圖

 

 

 

 

 

 

 

 

13、 Linear Transformer :“Transformers are rnns: Fast autoregressive transformers with linear attention“ 如圖是其算法偽代碼

 

 

 

 

14、 Performer :“Masked language modeling for proteins via linearly scalable long-context transformers“ 如圖是Fast Attention via Orthogonal Random Features (FAVOR)的算法偽代碼

 

 

 

 

15、 Synthesizer :“Synthesizer: Rethinking self-attention in transformer models.“如圖

 

 

 

 

16、 Transformer-XL :“Transformer-xl: Attentive language models beyond a fixed-length context“如圖

 

 

 

 

17、 Compressive Transformers :“Compressive transformers for long-range sequence modelling“如圖

 

 

 

 

評估基準

盡管該領域忙于使用新的Transformer模型,但幾乎沒有一種簡單的方法可以將這些模型比較。許多研究論文選擇自己的基準來展示所提出模型的功能。再加上不同的超參數(shù)設置(例如模型大小和配置),可能難以正確地找到性能提升的原因。此外,一些論文將其與預訓練相提并論,使區(qū)分這些不同模型相對性能的難度更大。 考慮使用哪個基本高效的Transformer block,仍然是一個謎。

一方面,有多種模型集中在 generative modeling ,展示了提出的Transformer單元在序列AR(auto-regressive)建模上的能力。為此,Sparse Transformers, Adaptive Transformers, Routing Transformers 和 Reformers主要集中在generative modeling任務。這些基準通常涉及在諸如Wikitext、enwik8和/或ImageNet / CIFAR之類的數(shù)據(jù)集上進行語言建模和/或逐像素生成圖像。而segment based recurrence模型(例如Transformer-XL和Compressive Transformers)也專注于大范圍語言建模任務,例如PG-19。

一方面,一些模型主要集中于**編碼(encoding only)**的任務,例如問題解答、閱讀理解和/或從Glue基準中選擇。例如ETC模型僅在回答問題基準上進行實驗,如NaturalQuestions或TriviaQA。另一方面,Linformer專注于GLUE基準測試子集。這種分解是非常自然和直觀的,因為ETC和Linformer之類的模型無法以AR(auto-regressive)方式使用,即不能用于解碼。這加劇了這些編碼器模型與其他模型進行比較的難度。

有些模型著眼于上述兩者的平衡。Longformer試圖通過在生成建模和編碼器任務上運行基準來平衡這一點。Sinkhorn Transformer對生成建模任務和僅編碼任務進行比較。

此外,還值得注意的是,盡管Seq2Seq任務的**機器翻譯(MT)**是普及Transformer模型的問題之一,但這些有效的Transformer模型沒有能對MT進行多些的評估。這可能是因為MT的序列長度不足以保證這些模型的使用。

盡管generative modeling、**GLUE(General Language Understanding Evaluation)**和/或question answering,似乎是這些應用的通用評估基準,但仍有一些基準可供小部分論文單獨進行評估。首先,Performer模型會對masked language modeling進行評估,和其他有效的Transformer模型進行了正面對比。而且Linear Transformer還對語音識別進行評估,這是比較罕見的了。

效率方面的比較

另外,論文最后還對這些效率提高的方法做了分析比較,主要是幾個方面:

  • Weight Sharing

  • Quantization / Mixed Precision

  • Knowledge Distillation (KD)

  • Neural Architecture Search (NAS)

  • Task Adapters

 

 

責任編輯:張燕妮 來源: 夕小瑤的賣萌屋
相關推薦

2024-06-19 16:11:22

2023-06-03 20:51:09

2021-04-27 15:47:12

人工智能語音識別Transformer

2020-09-21 14:25:26

Google 開源技術

2021-10-13 17:21:13

模型人工智能開源

2024-10-22 17:24:32

2025-04-16 02:30:00

2010-10-08 20:40:43

2011-11-29 09:54:20

Google進化史

2024-01-02 09:49:19

AI研究調(diào)查

2024-01-15 08:17:00

模型技術

2024-07-01 10:19:22

2013-12-03 13:03:22

SDN價值

2024-11-29 18:37:07

2010-08-13 09:58:15

Gooele

2023-11-05 10:04:47

2021-02-23 10:09:22

谷歌開源語言模型

2023-11-22 11:29:28

2023-05-16 12:11:22

2020-09-27 10:37:51

谷歌Transformer機器學習
點贊
收藏

51CTO技術棧公眾號

99精品99久久久久久宅男| 国产亚洲欧洲高清一区| 日b视频免费观看| 噜噜噜久久,亚洲精品国产品| 一区在线播放| 亚洲精品福利在线| 大香煮伊手机一区| 久久bbxx| www.在线成人| 国产精品成人v| 91视频青青草| 免费成人av| 欧美一区二区三区四区视频| 免费一级特黄毛片| 成人在线观看黄色| 成人少妇影院yyyy| 国产精品久久久久久久久免费看| 欧美极品视频在线观看| 夜色77av精品影院| 日韩一级免费观看| 最近免费中文字幕中文高清百度| 八戒八戒神马在线电影| 五十路在线视频| 亚洲成熟女性毛茸茸| 激情婷婷久久| 日韩在线观看免费全集电视剧网站| 亚洲色图欧美另类| 国产69精品久久| 激情懂色av一区av二区av| 亚洲aⅴ天堂av在线电影软件| 国产成人精品一区二三区四区五区| 久久只有精品| 777精品视频| 青青青在线视频| 999久久久精品国产| 亚洲欧美日韩在线高清直播| 蜜桃色一区二区三区| 精品久久在线| 日本不卡视频一二三区| 久久视频在线观看免费| 国产精成人品免费观看| 牛牛影视久久网| 日韩精品中文字幕一区二区三区 | 一本色道久久综合亚洲91| 99久久久无码国产精品性色戒| 精品欧美不卡一区二区在线观看| 成人av网址在线观看| 91久久精品国产91久久性色tv | 蜜臀av性久久久久蜜臀aⅴ流畅| 欧美精品日韩www.p站| 午夜国产福利视频| 国产成人aa在线观看网站站| 色素色在线综合| 女人喷潮完整视频| 牛牛精品视频在线| 亚洲欧美一区二区三区久本道91| 水蜜桃亚洲一二三四在线| 欧美成人精品一区| 欧美老熟妇乱大交xxxxx| 精品久久国产一区| 欧美人与禽zozo性伦| 精品无码国模私拍视频| 影音先锋男人在线资源| 亚洲欧美区自拍先锋| 无遮挡亚洲一区| 天天av天天翘| 岛国精品在线播放| aaa级精品久久久国产片| 国产丰满美女做爰| 国v精品久久久网| 99国产在线视频| 精品女同一区二区三区| 国产九九视频一区二区三区| 亚洲va欧美va国产综合久久| 国产又粗又猛又爽又黄视频| 久久精品国产亚洲高清剧情介绍| 国产精品国语对白| 天天射天天干天天| 日韩精品一二区| 国产精品久久久久久av下载红粉 | 亚洲欧美偷拍另类a∨色屁股| 亚洲国产午夜伦理片大全在线观看网站| 狠狠色伊人亚洲综合网站l| 久久亚洲精品小早川怜子| 精品九九九九| 国产一级免费在线观看| 国产欧美日韩在线视频| 亚洲精品永久www嫩草| 午夜免费福利在线观看| 中文字幕一区二区三区在线不卡| 一区二区三区一级片| 中文字幕伦理免费在线视频 | avove在线观看| www红色一片_亚洲成a人片在线观看_| 亚洲精品高清在线观看| 黄色片网址在线观看| 神马久久午夜| 精品视频一区二区不卡| 超碰中文字幕在线观看| 私拍精品福利视频在线一区| 一区二区日韩精品| 男女做暖暖视频| 激情久久婷婷| 国产成人av网址| 国产精品福利电影| 成人黄页毛片网站| 日韩国产欧美一区| 成人免费高清| 欧美视频在线免费看| 中文字幕 91| 一区二区三区四区精品视频| 日韩精品高清在线| 网站永久看片免费| 欧美天天在线| 国产精品视频精品| 人人妻人人澡人人爽久久av | 三级久久三级久久久| 亚洲www视频| 激情在线视频| 午夜一区二区三区在线观看| 992kp快乐看片永久免费网址| 欧美在线一级| 亚洲免费一在线| 亚洲不卡在线播放| 日韩va亚洲va欧美va久久| 91视频8mav| 国产玉足榨精视频在线观看| 亚洲综合在线视频| 亚洲涩涩在线观看| 亚洲精品亚洲人成在线| 伦伦影院午夜日韩欧美限制| 午夜精品一区二| 国产精品91xxx| 午夜精品一区二区在线观看| 国产精选在线| 日韩精品中午字幕| 日韩在线视频免费看| 亚洲永久免费精品| 成人两性免费视频| 国产日产精品久久久久久婷婷| 亚洲国产va精品久久久不卡综合| 奇米影视四色在线| 精品一区毛片| 97婷婷涩涩精品一区| 国产精品欧美激情在线| 国产亚洲精品7777| 免费成人午夜视频| 综合激情网...| 美日韩精品视频免费看| 在线观看免费视频a| 国产福利91精品一区二区三区| 久久久久久国产精品免费免费| 七七成人影院| 欧美一级片在线观看| 国产三级aaa| 99国产精品久久久久久久成人热 | av成人资源网| 久久国产精品网站| 国产视频第二页| 中文字幕亚洲一区二区va在线| 性生交免费视频| gogogo高清在线观看一区二区| 日韩暖暖在线视频| 欧美男男激情freegay| 欧美日韩综合视频| aaaaaav| 欧美精品一区二区三区久久久竹菊| 国产精品一区久久| av电影在线播放高清免费观看| 欧美亚洲综合在线| 国产黄色录像视频| 蜜桃视频一区二区三区在线观看 | 肉色超薄丝袜脚交| 中文字幕午夜精品一区二区三区 | 91麻豆一区二区| 国产精品久久久久影院亚瑟| 手机av在线免费| 久久久久亚洲| 福利视频一区二区三区| 国产亚洲成av人片在线观看| 亚洲另类图片色| 中文字幕在线播放av| 综合欧美亚洲日本| 色偷偷中文字幕| 91精品国产自产拍在线观看蜜| 国产日韩视频在线观看| h片在线免费| 亚洲第一中文字幕| 精品国产乱子伦| 欧美国产欧美综合| 色姑娘综合天天| 国产精品videosex极品| 国产欧美精品一区二区三区| 亚洲人体视频| 久久精品国产69国产精品亚洲| 精品二区在线观看| 天天影视网天天综合色在线播放| 蜜桃av免费看| 激情综合网av| 免费观看美女裸体网站| 黑丝美女一区二区| 国产在线播放91| av资源中文在线天堂| 亚洲无av在线中文字幕| 国产精品毛片一区二区在线看舒淇 | 亚洲欧美大片| 日韩欧美一区二区视频在线播放 | 5566中文字幕一区二区| 黄色漫画在线免费看| 正在播放欧美一区| www.国产视频| 五月天一区二区三区| 毛片aaaaaa| 成人毛片在线观看| 亚洲欧美日韩一级| 亚洲精选91| 欧美一进一出视频| 日韩专区视频| 55夜色66夜色国产精品视频| 麻豆tv在线| 亚洲欧洲日产国产网站| 国产片在线播放| 一本久久综合亚洲鲁鲁五月天| www.97视频| 91在线你懂得| 一个色综合久久| 久久精品毛片| 男人c女人视频| 久久久影院免费| 欧美精品一区二区视频| 美女国产精品久久久| 国产精品爱久久久久久久| 黄色在线看片| 不卡毛片在线看| av大片在线播放| 亚洲成人av片| 国产免费一区二区三区最新不卡| 色女孩综合影院| 日韩xxxxxxxxx| 亚洲一区二区五区| 中文字幕电影av| 国产精品久久久久久久午夜片| 一级做a爰片毛片| 成人性视频网站| 亚洲AV无码久久精品国产一区| 日一区二区三区| ww国产内射精品后入国产| 亚洲午夜伦理| av 日韩 人妻 黑人 综合 无码| 日韩精品不卡一区二区| 日本精品一区二区三区高清 久久 日本精品一区二区三区不卡无字幕 | 欧美成人综合一区| 911亚洲精品| 国产精品久久亚洲7777| 日韩高清一区| 亚洲最大成人网色| 9999精品视频| 91在线网站视频| 国产人与zoxxxx另类91| 91精品久久久久| aa亚洲一区一区三区| 成人乱色短篇合集| 欧美亚洲二区| 97超碰人人模人人爽人人看| 欧美精品影院| 91中文字幕一区| 亚洲精品午夜| 国外成人在线视频网站| 日本精品影院| 欧日韩一区二区三区| 精品香蕉视频| 伊人久久大香线蕉精品| 女生裸体视频一区二区三区| a级片一区二区| 激情欧美亚洲| 国产女大学生av| 天堂午夜影视日韩欧美一区二区| 久久婷婷五月综合色国产香蕉| 亚洲欧美日韩专区| 亚洲一区二区三区四区五区xx| 麻豆成人综合网| 亚洲欧美手机在线| 久久99国产精品久久| 中文字幕人妻一区| 久久综合狠狠综合| 成人小视频免费看| 亚洲私人影院在线观看| 久久国产在线观看| 欧美视频第一页| 丰满熟女人妻一区二区三| 欧美电影一区二区| 国产香蕉在线观看| 亚洲人成网站777色婷婷| av资源网站在线观看| 九九精品在线播放| 亚洲人体影院| 亚洲iv一区二区三区| 六月丁香久久丫| 图片区小说区区亚洲五月| 午夜精品剧场| 国产精品免费成人| 日韩av一二三| 久久人妻少妇嫩草av无码专区| 日本一区二区免费在线观看视频| 人人艹在线视频| 精品露脸国产偷人在视频| 在线观看国产精品视频| 精品国产欧美一区二区| 成a人v在线播放| 欧美精品videos| 六九午夜精品视频| 国产66精品久久久久999小说| 欧美xxxx中国| 免费在线观看亚洲视频| 激情综合五月天| a毛片毛片av永久免费| 亚洲精品ww久久久久久p站| 国产午夜精品一区二区理论影院| 欧美三区在线视频| 蜜臀久久精品久久久久| 日韩在线欧美在线国产在线| 国产欧洲在线| 成人网欧美在线视频| 欧美影院三区| 欧美日韩在线不卡视频| 国精产品一区一区三区mba视频 | 国产一区二区三区在线观看| 亚洲第一二三四五区| 男人资源在线播放| 91精品国产91久久久久| 成人乱码手机视频| 亚洲成人第一| 国产日韩免费| 韩国黄色一级片| 中文字幕一区二区三区在线观看| www.com国产| 精品国精品国产| 久操视频在线观看| 国产精品大陆在线观看| 四虎5151久久欧美毛片| 8x8x华人在线| 国产成人综合在线观看| 香蕉成人在线视频| 在线免费亚洲电影| 日韩三级电影网| 91高清免费视频| 另类春色校园亚洲| 狠狠干 狠狠操| 国产激情视频一区二区在线观看| 天天操天天操天天操天天操天天操| 欧美色区777第一页| аⅴ资源新版在线天堂| 国产成人精品久久二区二区| 日本成人a网站| 2022亚洲天堂| 91麻豆123| 中文字幕日韩一级| 亚洲欧美色婷婷| 午夜欧美巨大性欧美巨大| 欧美一区二区三区成人久久片| 美女日韩在线中文字幕| 中文字幕xxx| 日韩欧美精品免费在线| 色视频免费在线观看| 69国产精品成人在线播放| 美女一区2区| 国产极品粉嫩福利姬萌白酱| 26uuuu精品一区二区| 夜夜爽妓女8888视频免费观看| 亚洲视频日韩精品| 亚洲电影有码| 一区二区三区三区在线| 国产乱对白刺激视频不卡| xxxx 国产| 亚洲国产精品字幕| 九九九伊在线综合永久| 亚洲精品欧美精品| 久久er精品视频| 黄色一级片在线免费观看| 亚洲福利视频二区| 小视频免费在线观看| 欧美日韩精品免费观看视一区二区 | 懂色av.com| 日韩国产一区三区| 国产成人毛片| 日韩中文在线字幕| 成人国产免费视频| www.亚洲激情| 欧美夫妻性视频| 天堂av一区二区三区在线播放| 日韩在线第三页| 亚洲四区在线观看| 无码精品人妻一区二区三区影院| 国产精品69av| 综合激情婷婷| 日本xxx在线播放| 51久久夜色精品国产麻豆| 波多野结衣视频一区二区| 欧美男人的天堂| 美女爽到高潮91|