精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

預訓練模型的過去、現(xiàn)在和將來之一

安全 應用安全
本文將分為上下兩篇為讀者解讀預訓練模型的誕生、代表性工作和未來發(fā)展方向。上篇主要介紹預訓練的誕生和代表性工作,下篇主要介紹預訓練模型的未來發(fā)展方向。

[[425769]]

最近,隨著大數(shù)據(jù)和高性能硬件的發(fā)展,自回歸語言模型(GPT)和自編碼語言模型(BERT)等大規(guī)模預訓練模型(PTM)已經(jīng)取得了巨大成功,不僅促進了自然語言處理(NLP)任務的性能提升,也有效地提升了圖像處理任務的表現(xiàn)。大規(guī)模預訓練模型的突出優(yōu)勢在于,能夠從海量未標注的數(shù)據(jù)上學習語言本身的知識,而后在少量帶標簽的數(shù)據(jù)上微調(diào),從而使下游任務能夠更好地學習到語言本身的特征和特定任務的知識。這種預訓練模型不僅能夠充分利用廣泛的網(wǎng)絡資源,而且還能完美地解決人工標記數(shù)據(jù)較為復雜的問題。因此,預訓練模型幾乎成了NLP任務的標配[1]。

本文將分為上下兩篇為讀者解讀預訓練模型的誕生、代表性工作和未來發(fā)展方向。上篇主要介紹預訓練的誕生和代表性工作,下篇主要介紹預訓練模型的未來發(fā)展方向。相關內(nèi)容主要借鑒參考文獻[1]。

1、背景介紹

近些年,包括卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡和Transformer等模型在內(nèi)的深度神經(jīng)網(wǎng)絡已經(jīng)廣泛地應用于各類應用中。與依賴人工特征的傳統(tǒng)機器學習方法相比,深度神經(jīng)網(wǎng)絡能夠通過網(wǎng)絡層自動學習數(shù)據(jù)特征,從而擺脫了人工設計特征的局限性,極大地提升了模型的性能。

盡管深度神經(jīng)網(wǎng)絡促進各類任務取得了極大的突破,但深度學習模型對數(shù)據(jù)較高的依賴性也帶來了極大的挑戰(zhàn)。因為深度學習模型需要學習大量的參數(shù),數(shù)據(jù)量少必定會造成模型過擬合和泛化能力差。為此,早期的AI研究者開始投身于為AI任務手工構(gòu)造高質(zhì)量數(shù)據(jù)集的研究中。最著名的是李飛飛團隊的ImageNet圖像處理數(shù)據(jù)集,該數(shù)據(jù)集極大地促進了圖像處理領域的快速發(fā)展。但是,自然語言處理領域處理的是離散的文本數(shù)據(jù),人工標注工作較為復雜。因此,NLP領域開始關注海量未標注的數(shù)據(jù)。

預訓練模型的最初探索主要致力于淺層語義表示和上下文語義表示。最早關注的淺層語義表示是Word2Vec[2]等,為每個單詞學習一個固定的單詞編碼,而后在多個任務上都用相同的編碼,這樣表示方法必定帶來無法表示一詞多義的問題。為了解決上述挑戰(zhàn),NLP 研究者開始探索具有上下文語義的單詞詞嵌入表示[3][4][5]。到目前為止,具有代表性的詞嵌入表示是BERT和GPT系列的預訓練模型,其中GPT-3的模型參數(shù)已經(jīng)達到了千億級別。預訓練模型的發(fā)展歷程如圖1所示。

圖1 預訓練模型的分類

1.1 遷移學習與監(jiān)督訓練

為了解決標注數(shù)據(jù)緊缺導致的過擬合和泛化能力差的問題,提出了遷移學習。遷移學習是受人類學習的啟發(fā),面對新問題時使用以前學到的知識去解決問題。它能夠從多元任務中學到重要的知識,并將其應用到目標任務中。因此,遷移學習能很好地解決目標任務標注數(shù)據(jù)緊缺的問題。

預訓練早期的工作主要致力于遷移學習[6],依賴于先前的經(jīng)驗來解決新問題。在遷移學習中,可能原任務和目標任務有不同的領域和任務設置,但是要求的知識是一致的[7]。所以,選擇一個靈活的方法將知識從原始任務遷移到目標任務是很重要的。預訓練模型的提出就是為了建立原任務和目標任務的橋梁,先在多元任務上預訓練獲得通用知識,然后使用少量目標任務上的標注數(shù)據(jù)進行微調(diào),使得微調(diào)的模型能夠很好地處理目標任務。

圖2 遷移學習將已有知識重用到目標任務的原理圖

一般來說,遷移學習中存在兩種預訓練方法:特征遷移和參數(shù)遷移。遷移學習初期被廣泛應用在計算機視覺領域,在人類標注的ImageNet數(shù)據(jù)集上預訓練的模型通過小數(shù)據(jù)集的微調(diào)就可以很好地應用在下游任務中,這掀起了預訓練模型(Pre-trained Model, PTM)的熱潮。受此啟發(fā),NLP 社區(qū)也開始探索針對 NLP 任務的預訓練模型,最具有代表性的工作是 CoVE[8]。和圖像處理領域最大的區(qū)別在于,NLP 領域沒有人類標注的大量數(shù)據(jù)集,因此 NLP 社區(qū)開始充分使用大量未標注的數(shù)據(jù),并且在未標注的數(shù)據(jù)上使用自監(jiān)督方法,能夠讓預訓練模型學習到語言本身的特征。

1.2 自監(jiān)督學習與自監(jiān)督訓練

遷移學習能夠分類為四種子設置:歸納遷移學習、直推式遷移學習、自學遷移學習和無監(jiān)督遷移學習。其中歸納遷移學習和直推式遷移學習是研究的核心,因為它們能夠?qū)⒈O(jiān)督學習中學到的知識遷移到目標任務中。由于監(jiān)督學習需要大量的標注數(shù)據(jù),因此越來越多的研究者開始關注大規(guī)模的無標注數(shù)據(jù),并嘗試從無標注數(shù)據(jù)中提取關鍵信息。

自監(jiān)督學習是從無標注數(shù)據(jù)中提取知識的一種手段,它能夠利用數(shù)據(jù)本身的隱藏信息作為監(jiān)督,和無監(jiān)督有非常相似的設置。由于自然語言很難標注且又存在大量未標注的句子,所以NLP 領域的預訓練模型主要致力于自監(jiān)督學習,進而大大促進了NLP領域的發(fā)展。NLP任務早期的預訓練模型就是廣為人知的單詞詞嵌入編碼。由于單詞通常存在一詞多義的問題 [4],進一步提出了能夠捕獲單詞上下文語義信息的句子級別單詞詞嵌入編碼模型,這種模型幾乎成為當前 NLP 任務的最常見模式,其中最具代表性的工作是自回歸語言模型(GPT)和自編碼語言模型(BERT)。受二者的啟發(fā),后期又提出了很多更高效的預訓練模型,如 RoBERTa[9]、XLNET[10]、BART和T5[11]。

2、代表性工作

預訓練模型成功的關鍵是自監(jiān)督學習與Transformer的結(jié)合,具有代表性的工作是 GPT 和BERT系列模型。后續(xù)的其他預訓練模型都是這兩個經(jīng)典模型的變體。預訓練模型的相關模型家族如圖3所示。

圖3 近年來的預訓練模型家族

2.1 Transformer

Transformer是一個應用自注意力機制的編碼-解碼器結(jié)構(gòu),它能夠建模輸入句子中不同單詞之間的關系。歸因于self-attention機制的平行計算,Transformer能夠充分利用增強的計算設備去訓練大范圍模型。Transformer的編碼和解碼階段,self-attention機制可以計算所有輸入單詞的表示,Transformer的模型結(jié)構(gòu)如圖4所示。

在編碼階段,給定一個單詞,Transformer通過比較該單詞與輸入的其他單詞來計算注意力得分,每一個注意力得分顯示了其他單詞對該單詞表示的貢獻程度,然后該注意力得分被作為其他單詞對該單詞的權重來計算給定單詞的加權表示。通過喂入所有單詞表示的加權平均到全連接網(wǎng)絡,可以獲得給定單詞的影響力表示。這個過程是整個句子信息回歸方法,在平行計算的輔助下,可以同時為所有單詞生成句子表示。在解碼階段,注意力機制是相似于編碼階段的,唯一不同的是,它一次只能從左到右解碼一個表示,并且每一步的解碼過程都會考慮以前的解碼結(jié)果。

由于突出的優(yōu)勢,Transformer逐漸成為自然語言理解和生成的標準網(wǎng)絡結(jié)構(gòu)。此外,它還充當隨后派生的PTM的主干結(jié)構(gòu)。下文將介紹的GPT和BERT兩個模型,完全打開了大規(guī)模自監(jiān)督PTMs時代的里程碑??偟膩碚f,GPT擅長自然語言生成,而BERT更側(cè)重于自然語言理解。

圖4 Transformer的模型結(jié)構(gòu)

2.2 GPT

PTMs主要包含兩個階段,預訓練階段和微調(diào)階段。GPT采用Transformer結(jié)構(gòu)作為模型骨架,應用生成式預訓練和鑒別式微調(diào)。理論上來說,GPT是第一個結(jié)合Transformer結(jié)構(gòu)和自監(jiān)督預訓練目標的模型,它在自然語言推理、問答任務和常識推理等多個NLP任務上都取得了重大的成功。

具體來說,給定一個無標簽的大規(guī)模語料庫,GPT能夠優(yōu)化一個標準的自回歸語言模型,即最大化單詞在給定上下文情況下的預測條件概率。在GPT的預訓練階段,每個單詞的條件概率由Transformer建模。GPT對特定任務的適應過程是微調(diào)的,通過使用 GPT的預訓練參數(shù)作為下游任務的起點。在微調(diào)階段,將輸入序列通過 GPT,我們可以獲得GPT Transformer 最后一層的表示。通過使用最后一層的表示和特定于任務的標簽,GPT使用簡單的額外輸出層優(yōu)化下游任務的標準目標,GPT模型的具體結(jié)構(gòu)如圖5所示。

由于GPT有數(shù)億個參數(shù),在8個GPU上訓練了1個月,這是 NLP歷史上第一個“大規(guī)模”的PTM,GPT的成功為后續(xù)一系列大規(guī)模PTM的興起鋪平了道路。

圖5 GPT模型結(jié)構(gòu)

2.3 BERT

BERT是另一個最具代表性的模型。與GPT相比,BERT 使用雙向深度Transformer作為主要結(jié)構(gòu),BERT的模型結(jié)構(gòu)如圖6所示。BERT模型包括預訓練和微調(diào)兩個階段。在預訓練階段,BERT應用自編碼語言建模,受完形填空的啟發(fā),提出了一種Mask語言模型(MLM),將目標詞用[MASK]符號遮蓋,目的是在預測該遮蓋詞時能夠同時考慮到上文和下文的全部信息。與GPT采用的單向自回歸語言建模相比,MLM 可以學習到深度雙向所有token的表示。

除了MLM任務之外,還采用下一句預測(NSP)的目標來捕捉句子之間的話語關系,用于一些多個句子的下游任務。在預訓練階段,MLM和NSP共同優(yōu)化BERT的參數(shù)。

預訓練后,BERT可以獲得下游任務的穩(wěn)健參數(shù)。通過使用下游任務的數(shù)據(jù)修改輸入和輸出,BERT 可以針對任何 NLP 任務進行微調(diào)。BERT 可以通過輸入單個句子或句子對有效地處理這些應用程序。對于輸入,它的模式是用特殊標記 [SEP] 連接的兩個句子,它可以表示:(1)釋義中的句子對;(2)蘊涵中的假設-前提對;(3)問答中的問題-段落對;(4) 用于文本分類或序列標記的單個句子。對于輸出,BERT 將為每個令牌生成一個token-level表示,可用于處理序列標記或問答,并且特殊令牌 [CLS] 可以輸入額外的層進行分類。

圖6 BERT模型結(jié)構(gòu)

2.4 GPT和BERT的子子孫孫

在GPT和BERT預訓練模型之后,又出現(xiàn)了一些基于二者的改進,如RoBERTa和 ALBERT[12]。RoBERTa的改進思路主要是去除了NSP任務,增加了訓練步數(shù)以及更多的數(shù)據(jù),并將[MASK]改變?yōu)閯討B(tài)模式。實證結(jié)果表明Roberta比BERT更好,并且RoBERTa 已經(jīng)指出 NSP 任務對于BERT的訓練來說是相對無用的。

ALBERT是BERT的另一個重要變體,它的出發(fā)點是減少模型的參數(shù)。首先,它將輸入詞嵌入矩陣分解為兩個較小的矩陣;其次它強制所有 transformer 層之間的參數(shù)共享以減少參數(shù)量;第三,它提出了句子順序預測任務來代替BERT的NSP任務。但是,由于犧牲了空間效率,ALBERT 的微調(diào)和推理速度相對較慢。

除了 RoBERTa和ALBERT之外,近年來研究者們還提出了各種預訓練模型以更好地從未標注數(shù)據(jù)中獲取知識。一些工作改進了模型架構(gòu)并探索了新的預訓練任務,如 XLNet[10]、UniLM[13]、MASS[14]、SpanBERT[15]和ELECTRA[16]。此外研究者嘗試在模型中整合更多的知識,如多語言語料庫、知識圖譜和圖像等。

3、小 結(jié)

由于NLP領域沒有公開的大規(guī)模標注語料庫,所以預訓練模型的提出使得NLP模型能夠充分地利用到海量無標注的數(shù)據(jù),從而大大提升了NLP任務的性能。特別是,GPT和BERT預訓練模型的出現(xiàn),讓NLP領域有了突飛式發(fā)展,同時,優(yōu)化與完善的預訓練模型也如雨后春筍般涌現(xiàn),相關的探索工作將在下篇詳細介紹。

參考文獻

[1] Xu H, Zhengyan Z, Ning D, et al. Pre-Trained Models: Past, Present and Future[J]. arXiv preprint arXiv:2106.07139, 2021.

[2] T. Mikolov, I. Sutskever, K. Chen, G. S. Corrado, and J. Dean, “Distributed representations of words and phrases and their compositionality,” in Advances in neural information processing systems, pp. 3111–3119, 2013.

[3] O. Melamud, J. Goldberger, and I. Dagan, “context2vec: Learning generic context embedding with bidirectional lstm,” in Proceedings of the 20th SIGNLL conference on computational natural language learning, pp. 51–61, 2016.

[4] M. E. Peters, M. Neumann, M. Iyyer, M. Gardner, C. Clark, K. Lee, and L. Zettlemoyer, “Deep contex-tualized word representations,” arXiv preprint arXiv:1802.05365, 2018.

[5] J. Howard and S. Ruder, “Universal language model fine-tuning for text classification,” arXiv preprint arXiv:1801.06146, 2018.

[6] S. Thrun and L. Pratt, “Learning to learn: Introduction and overview,” in Learning to learn, pp. 3–17, Springer, 1998.

[7] S. J. Pan and Q. Yang, “A survey on transfer learning,” IEEE Transactions on knowledge and data engineering, vol. 22, no. 10, pp. 1345–1359, 2009.

[8] B. McCann, J. Bradbury, C. Xiong, and R. Socher, “Learned in translation: Contextualized word vectors,” arXiv preprint arXiv:1708.00107, 2017.

[9] Y. Liu, M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer, and V. Stoyanov, “Roberta: A robustly optimized bert pretraining approach,” arXiv preprint arXiv:1907.11692, 2019.

[10] Z. Yang, Z. Dai, Y. Yang, J. Carbonell, R. R. Salakhutdinov, and Q. V. Le, “Xlnet: Generalized autoregressive pretraining for language understanding,” Advances in neural information processing systems, vol. 32, 2019.

[11] A. Roberts, C. Raffel, K. Lee, M. Matena, N. Shazeer, P. J. Liu, S. Narang, W. Li, and Y. Zhou,

“Exploring the limits of transfer learning with a unified text-to-text transformer,” 2019.

[12] Z. Lan, M. Chen, S. Goodman, K. Gimpel, P. Sharma, and R. Soricut, “Albert: A lite bert for self-supervised learning of language representations,” arXiv preprint arXiv:1909.11942, 2019.

[13] L. Dong, N. Yang, W. Wang, F. Wei, X. Liu, Y. Wang, J. Gao, M. Zhou, and H.-W. Hon, “Uni-

fied language model pre-training for natural language understanding and generation,” arXiv preprint

arXiv:1905.03197, 2019.

[14] K. Song, X. Tan, T. Qin, J. Lu, and T.-Y. Liu, “Mass: Masked sequence to sequence pre-training for language generation,” arXiv preprint arXiv:1905.02450, 2019.

[15] M. Joshi, D. Chen, Y. Liu, D. S. Weld, L. Zettlemoyer, and O. Levy, “Spanbert: Improving pre-training by representing and predicting spans,” Transactions of the Association for Computational Linguistics, vol. 8, pp. 64–77, 2020.

[16] K. Clark, M.-T. Luong, Q. V. Le, and C. D. Manning, “Electra: Pre-training text encoders as discriminators rather than generators,” arXiv preprint arXiv:2003.10555, 2020.

 

責任編輯:武曉燕 來源: 51CTO專欄
相關推薦

2010-10-27 13:54:47

2010-02-04 18:46:54

2021-09-07 13:22:57

模型人工智能計算

2013-07-19 11:00:36

Hadoop

2012-02-16 09:10:31

JavaScript

2016-08-28 15:55:04

Hadoop大數(shù)據(jù)

2017-08-08 15:40:26

OpenStack轉(zhuǎn)型基金會

2012-02-23 14:08:44

2017-03-22 20:36:34

深度學習機器學習人工智能

2020-05-26 11:17:34

區(qū)塊鏈金融技術

2023-03-21 11:24:44

eSIM移動通信

2024-12-18 07:45:18

2019-09-08 17:37:47

2020-11-17 13:00:37

物聯(lián)網(wǎng)IOT物聯(lián)網(wǎng)應用

2021-08-16 08:44:54

Pravega Fli項目協(xié)議

2021-07-16 10:05:34

項目企業(yè)系統(tǒng)

2022-05-17 16:13:31

區(qū)塊鏈以太坊監(jiān)管

2009-05-15 17:23:56

2022-07-14 08:17:59

中間件微服務開發(fā)

2023-02-01 09:46:29

點贊
收藏

51CTO技術棧公眾號

成人性生活免费看| 国产黄色片免费在线观看| 中文字幕一级片| 影音先锋日韩在线| 欧美精品一区二区不卡| av免费播放网址| 欧美成人二区| 99久久国产免费看| 国产精品九九久久久久久久| 青草草在线视频| 亚洲小说图片视频| 91精品国产一区二区三区蜜臀 | 91精品国产自产91精品| www.黄色在线| 成人看片黄a免费看视频| 在线免费观看不卡av| 91手机视频在线| 色综合久久网女同蕾丝边| 麻豆中文一区二区| 欧美精品videosex牲欧美| 伊人影院综合网| 欧美大片网址| 日韩一区二区免费高清| 日韩av在线综合| 国产在线xxx| 国产精品激情偷乱一区二区∴| 国产一区二区无遮挡| 国产精品久久久久久久久久久久久久久久 | 国产盗摄x88av| 日韩av在线播放网址| 日韩av综合网站| 绯色av蜜臀vs少妇| 亚洲我射av| 欧美亚洲一区二区在线| 妞干网在线视频观看| 在线中文免费视频| 中文字幕中文在线不卡住| 久久精品一二三区| 免费看av毛片| 懂色av中文字幕一区二区三区| 国产在线久久久| 国产精品无码一区| 国产精品视区| 97色伦亚洲国产| 国产亚洲第一页| 午夜日韩在线| 久久综合亚洲社区| 免费中文字幕日韩| 围产精品久久久久久久 | 亚洲资源一区| 亚洲免费在线视频一区 二区| 亚洲午夜精品一区二区三区| av男人的天堂在线| 欧美国产精品专区| 亚洲欧洲另类精品久久综合| yourporn在线观看视频| 国产欧美一区二区三区在线老狼| 久久亚洲高清| 可以在线观看的黄色| 91毛片在线观看| 快播日韩欧美| 免费看男男www网站入口在线| 97se亚洲国产综合自在线| 国语精品免费视频| 亚洲色图21p| 久久久久国产免费免费| 亚洲不卡1区| 欧美激情视频在线播放| 亚洲天堂2016| 影音先锋成人资源网站| 污污的网站在线看| 亚洲成人激情av| www黄色日本| 欧美xo影院| 欧美日韩你懂得| 手机精品视频在线| 另类在线视频| 亚洲网站在线看| 国产wwwwxxxx| 色老头视频在线观看| 中文字幕国产精品一区二区| 亚洲高清乱码| 欧美性猛片xxxxx免费中国| 亚洲成人tv网| 成人中文字幕av| 亚洲国产aⅴ精品一区二区三区| 日韩欧美一级精品久久| 日本美女视频网站| 国产成人影院| 久久99青青精品免费观看| 国产精品黄色网| 日本不卡的三区四区五区| 91午夜在线播放| 亚洲 美腿 欧美 偷拍| 中文字幕av不卡| 成人黄色大片网站| 欧美不卡高清一区二区三区| 欧美精品高清视频| 久久久无码人妻精品一区| 色综合色综合| 91国产视频在线播放| 亚洲一区二区色| 成人国产一区二区三区精品| 午夜精品一区二区三区四区| 免费在线观看的电影网站| 日本精品一区二区三区高清| gogo亚洲国模私拍人体| 国产精品亚洲二区| 高清一区二区三区四区五区 | 91传媒视频在线播放| 免费不卡av网站| 你懂的视频欧美| 欧美激情视频在线免费观看 欧美视频免费一| 国产成人愉拍精品久久 | 色综合久久六月婷婷中文字幕| 国产精品自在自线| 国产99亚洲| 久久人人爽人人| 国产欧美熟妇另类久久久| 国产亚洲午夜高清国产拍精品| 狠狠精品干练久久久无码中文字幕 | 91精品国产乱码久久久久久久| 97超级碰碰碰久久久| 国产深喉视频一区二区| 欧美激情一区二区三区全黄| jizzjizz国产精品喷水| 婷婷综合国产| 久久精品人人做人人爽| 天天干天天操天天操| 成人免费毛片app| 老司机午夜网站| 91麻豆精品| 中文字幕日韩av| 成人免费一级片| 久久久一区二区三区| 欧美一区二区激情| av不卡一区二区| 欧美老女人在线视频| 国产影视一区二区| 一区二区中文视频| 伊人成人222| 日韩精品诱惑一区?区三区| 欧洲永久精品大片ww免费漫画| 后进极品白嫩翘臀在线视频| 亚洲精品国产精品乱码不99 | av电影一区二区| 18性欧美xxxⅹ性满足| 亚洲第一页中文字幕| 乳色吐息在线观看| 一区二区三区在线| 91午夜在线播放| 国产黄大片在线观看画质优化| 欧美三级中文字幕在线观看| 成熟人妻av无码专区| 视频一区二区不卡| 日本一区二区免费看| 日韩和的一区二在线| 一二美女精品欧洲| 在线免费观看一区二区| 国产精品国产自产拍在线| 五月激情五月婷婷| 亚洲色图欧美| 国产精品国产精品| 国产美女高潮在线观看| 日韩精品免费观看| av片免费观看| 国产精品沙发午睡系列990531| 天天插天天操天天射| 91亚洲自偷观看高清| 91精品视频在线播放| 影音先锋男人资源在线| 亚洲а∨天堂久久精品9966| 亚洲男人第一av| 日本一区二区三区在线观看| 911福利视频| 国产精品红桃| 久久亚洲综合网| 日本一区免费网站| 久久久精品一区二区三区| 国产黄a三级三级三级| 亚洲成a人v欧美综合天堂下载 | 久久全国免费视频| 欧美3p视频在线观看| 欧美视频中文字幕| 黄色一级片在线免费观看| 99精品热视频| 午夜免费看毛片| 伊人精品成人久久综合软件| 欧美一区视久久| 欧美精品影院| 欧美亚洲日本网站| 免费黄色在线| 日韩激情片免费| 在线播放成人av| 午夜久久福利影院| www..com.cn蕾丝视频在线观看免费版| 国产一区二区精品久久| 国产高清精品在线观看| 五月天综合网站| 鲁丝一区二区三区免费| 精品一区二区三区中文字幕| 欧亚精品中文字幕| 1024在线播放| 亚洲图中文字幕| 蜜桃91麻豆精品一二三区| 欧美视频精品在线观看| 日韩av电影网址| 中文字幕中文字幕一区| 精品无码一区二区三区| 国产福利精品导航| 国产又大又黄又粗的视频| 亚洲手机在线| 国产免费色视频| 欧美日韩在线二区| 精品日产一区2区三区黄免费| 成人黄色91| 国产精品爽爽ⅴa在线观看| sm久久捆绑调教精品一区| 久久影视免费观看| 成年人视频在线看| 亚洲跨种族黑人xxx| 亚洲大尺度网站| 在线播放日韩导航| 国产无遮挡又黄又爽又色视频| 精品久久久久久| 久久精品欧美一区二区| 亚洲人一二三区| 人妻熟人中文字幕一区二区| 91麻豆国产福利在线观看| 国产大尺度视频| 国产精品中文字幕一区二区三区| 91蝌蚪视频在线观看| 国产精品久久久久久模特 | 欧美精品黑人性xxxx| 国产精品传媒在线观看| 一本到三区不卡视频| 日本一级淫片色费放| 亚洲一区二区三区自拍| 日韩va亚洲va欧美va清高| 中文字幕在线视频一区| 国产精品久久久久久成人| 久久久久国产精品厨房| 亚洲永久无码7777kkk| 成人av午夜影院| 亚洲香蕉中文网| 成人av电影在线播放| 欧美一区二区免费在线观看| 不卡av免费在线观看| 在线精品视频播放| 白白色 亚洲乱淫| 蜜桃精品成人影片| 久久综合999| 国内精品卡一卡二卡三| 欧美激情综合网| 天堂а√在线中文在线鲁大师| 国产精品国产三级国产普通话三级 | 在线观看日本一区二区| 美女网站视频久久| 一级日本黄色片| 国产99久久精品| 性欧美18—19sex性高清| 97精品久久久午夜一区二区三区| 在线免费播放av| 国产亚洲污的网站| 日韩欧美在线视频播放| 亚洲人精品一区| 久久久久久欧美精品se一二三四| 亚洲图片欧美视频| 日本在线播放视频| 欧美三级电影在线观看| 国产乱人乱偷精品视频a人人澡| 日韩一级高清毛片| 五月婷婷久久久| 在线观看91久久久久久| av毛片在线| 青青a在线精品免费观看| 少妇高潮一区二区三区99| 91在线在线观看| 色婷婷狠狠五月综合天色拍| 午夜欧美性电影| 欧美 日韩 国产精品免费观看| 日本a视频在线观看| 爽爽淫人综合网网站| 一本一道久久a久久综合蜜桃| 夫妻av一区二区| 波多野结衣a v在线| ㊣最新国产の精品bt伙计久久| 精品无码久久久久久久| 欧美在线一区二区| 性一交一乱一透一a级| 亚洲丝袜在线视频| 亚洲色图美国十次| 国产精品国产三级国产aⅴ9色 | 极品盗摄国产盗摄合集| 福利一区福利二区微拍刺激| 国产精品久久久久久无人区| 日韩国产高清视频在线| 日韩精品成人av| 97免费在线视频| 精品国产亚洲一区二区在线观看| 久久久久久久久久久久久久久久av | 亚洲最新av在线| 男人天堂亚洲| 国产区精品在线观看| 久久精品国产亚洲blacked| 在线观看欧美激情| 男女精品网站| 亚洲精品第二页| 亚洲欧洲韩国日本视频| 91丝袜一区二区三区| 精品久久一区二区| 色视频在线免费观看| 欧洲美女7788成人免费视频| 91嫩草精品| 99精品视频网站| 日韩精品乱码免费| 不卡一区二区在线观看| 一区二区三区在线免费观看 | 欧美性片在线观看| 国产亚洲精品美女久久久m| 88国产精品视频一区二区三区| 国产一级不卡毛片| 99国内精品久久| 国产极品在线播放| 日韩亚洲欧美成人一区| 拍真实国产伦偷精品| 国产精品av免费在线观看| 老牛影视av一区二区在线观看 | 日韩av在线免费观看不卡| 日韩免费高清一区二区| 一区二区在线观看视频在线观看| 一级黄色a视频| 中文字幕亚洲综合久久筱田步美 | 欧美无砖砖区免费| 暖暖视频在线免费观看| 久久免费精品视频| 久久久久久毛片免费看| 国产精品一线二线三线| 国产a级毛片一区| 免费在线观看国产精品| 日韩亚洲欧美高清| 色爱综合区网| 成人欧美一区二区三区在线观看| 欧美黄色一级视频| 亚洲欧洲日韩综合| 亚洲一区视频在线| 国精产品乱码一区一区三区四区| 欧美黄色小视频| 国产精品xxx在线观看| 人妻少妇精品久久| 91在线视频播放地址| 亚洲天堂一区在线观看| 亚洲欧美成人一区二区在线电影| 午夜不卡影院| 欧美尤物一区| 日本在线不卡一区| 亚洲AV成人无码网站天堂久久| 欧美日韩精品福利| 成视频免费观看在线看| 97人人香蕉| 亚洲精品激情| brazzers精品成人一区| 欧美视频一二三区| 国产淫片在线观看| 国产精品播放| 久久一区欧美| 亚洲波多野结衣| 亚洲成人av片| 成人爽a毛片免费啪啪| 色一情一乱一伦一区二区三欧美| 麻豆一区二区99久久久久| 天天看片中文字幕| 亚洲国产一区二区三区四区| sis001欧美| 资源网第一页久久久| 粉嫩13p一区二区三区| 中文在线第一页| 啊v视频在线一区二区三区| 91麻豆精品国产91久久久久推荐资源| 日本少妇高潮喷水视频| 国产精品女上位| 国产18精品乱码免费看| 国产精品对白刺激| 欧美日韩亚洲国产精品| 野外性满足hd| 4438x亚洲最大成人网| japanese色国产在线看视频| 色一情一乱一伦一区二区三区丨 | 日本高清在线观看| 欧美国产二区| 国产一区二区三区在线看麻豆| 国产又爽又黄的视频| 日韩一区二区av| 久久亚州av| 久久精品视频在线观看免费| 欧美日韩国产色视频| 欧美日韩在线看片| 欧美伦理一区二区| 国产精品白丝av| 亚洲视屏在线观看|