精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型系列:一文匯總16個深度語言模型代表工作

發布于 2025-4-8 01:03
瀏覽
0收藏

在這一節,重點展開為大家梳理在大模型之前的GPT、BERT等深度語言模型的發展過程。

在大模型之前,預訓練語言模型是NLP中的核心,在pretrain-finetune這一階段的NLP發展中發揮著舉足輕重的作用。預訓練語言模型的無監督訓練屬性,使其非常容易獲取海量訓練樣本,并且訓練好的語言模型包含很多語義語法知識,對于下游任務的效果會有非常明顯的提升。本文首先介紹預訓練語言模型的里程碑方法,然后進一步介紹針對預訓練語言模型中的問題提出的各種改進和創新,包括16個近幾年來的經典預訓練語言模型。

1.預訓練語言模型的里程碑

預訓練語言模型要從詞向量說起。詞向量利用文本數據,構造出詞之間的共現關系,一般將在一句話中共現的詞作為正樣本,隨機負采樣構造負樣本,采用CBOW或Skip-Gram的方式進行訓練,以此達到讓經常共現的詞,能夠具有相似向量化表示。其本質是NLP中的一個先驗:頻繁在文本中共現的兩個詞,往往語義是相近的。然而,詞向量的問題也比較明顯,同一個詞在不同的語境中,含義往往是不同的,而詞向量對于某一個詞只能生成一個固定的向量,無法結合語境上下文信息進行調整。

Deep contextualized word representations(ACL 2018)提出了ELMo模型,利用雙向LSTM模型結合上下文語境信息生成詞的embedding。ELMo和以往的詞向量模型最大的差別是,每個詞的embedding都是整個句子的一個函數,即每個詞的embedding和這個句子的上下文信息是相關的。ELMo語言模型的模型結構采用了一個正向LSTM和一個反向LSTM聯合訓練的方式,優化兩個方向的語言模型優化目標。在完成訓練后,每個單詞在每層LSTM都會產生正向、反向兩個embedding,對每個單詞所有層的embedding拼接在一起,得到這個詞在這句話中的embedding。ELMO在使用到下游任務時,會把數據每句話先過一遍ELMo,得到每個詞的embedding,然后將ELMo生成的embedding和通過詞向量得到的embedding拼接到一起,用于后續任務預測。

此后,語言模型預訓練成為NLP中的核心之一。在Improving Language Understanding by Generative Pre-Training(2018)中提出了GPT模型。相比ELMo,GPT真正意義實現了pretrain-finetune的框架,不再需要將模型中的embedding取出來,而是直接把預訓練好的模型在下游任務上finetune,對于不同任務采用不同的輸入或輸出層改造,讓下游任務更貼近上游預訓練模型。值得一提的是,在后續的prompt等優化中,又將下游任務向上游任務的貼近更近了一步,即將下游任務的輸入和輸出邏輯也進行變化去適應上游任務。讓下游任務向上游任務對齊,是一個NLP中的發展方向。GPT模型主體采用的是Attention Is All You Need(NIPS 2017)提出的Transformer模型,使用的優化目標是正向語言模型。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(2018)提出了Bert模型,也是目前在NLP中應用最廣泛的預訓練模型之一。相比GPT和ELMo,Bert采用了一種Mask Language Model(MLM)這一不同的目標,通過隨機mask掉輸入文本中的某些token,然后利用上下文信息進行預測,實現對數據語義關系的提取。這種MLM相比之前的語言模型優化目標優點是,可以從多個方向同時進行信息抽取來預測當前token,而傳統的語言模型(前向后后向)每一次只能從一個方向提取信息。即使將前向和后向結合,也無法實現真正意義上的同時利用前后文信息預測當前token。同時,Bert還引入了Next Sentence Prediction(NSP)任務,在預訓練階段構造了兩個文本pair對輸入,預測這兩個文本的相關性。這個任務相當于是在sentence維度的信息提取,和下游的文本匹配類任務更加契合,這在單純的語言模型中是難以學到的。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

對Bert、GPT、ELMo三者模型結構圖的一個簡要對比如下,可以幫助更清晰的理解三類模型的差異。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

上文介紹了ELMo、GPT、Bert等3個預訓練語言模型的代表工作。下面我們梳理一下,在此之后,學術界對這些經典的預訓練語言模型進行了哪些方面的改進和創新。

2.針對GPT的改進創新

在GPT之后,OpenAI進一步提出了GPT-2、GPT-3,旨在通過更大的模型容量、更多的訓練語料進一步提升預訓練語言的效果。Language Models are Unsupervised Multitask Learners(2018)提出了GPT-2。本文相比GPT增加了語料、增大了模型尺寸,模型的基本結構和GPT差不多。GPT-2的核心思想是,任何一個有監督NLP任務,都可以看成是語言模型的一個子集,只要預訓練語言模型的容量足夠大,理論上就能解決任何NLP任務。任何NLP任務都可以表示成p(output | input, task)的形式,語言模型就是無監督的多任務學習。因此GPT-2的核心就是提升模型的容量和數據多樣性,讓語言模型能夠達到解決任何任務的程度。

在隨后的Language Models are Few-Shot Learners(2020)中提出了GPT-3,進一步增大了模型尺寸,模型參數量是GPT-2的100倍。GPT-3的核心思想在于不進行finetune(zero-shot learning)就可以對下游任務生成預測結果,其做法為將下游任務轉換為一系列的文本,直接通過語言模型預測出結果。下圖為一個例子,對比了finetune方法和GPT-3中提出的zero-shot方法的區別,便于對這種預測方法進行理解。通過增加對任務的描述文本,來讓模型知道當前要解決什么任務,進而實現預測。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

可以看出,GPT的后續優化思路,建立在不斷提升訓練語料豐富度和模型容量,使語言模型能夠從大量文本中學習到各個NLP任務的解決方法,再通過zero-shot learning的方式實現不進行finetune,而是將下游任務轉換成語言模型的輸入形式,來讓預訓練模型直接進行下游任務預測。

在GPT的基礎上,Meta在LLaMA: Open and Efficient Foundation Language Models中提出了LLaMA,LLaMA是目前很多SOTA開源大模型的基礎,包括DeepSeek、千問等在內的很多大模型的模型機構大體上都沿用了LLaMA。LLaMA的主體結構仍然基于Transformer,相比于GPT主要引入進行了一些結構上的細節優化,包括Pre-Normalization、RMSNorm、SwiGLU激活函數、Rotray Embedding等模塊進一步提升語言模型效果。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

3.針對BERT的改進創新

在Bert的基礎上,有很多針對其的改進,這里我們主要介紹3個模型。RoBERTa: A Robustly Optimized BERT Pretraining Approach(2019)細致的對Bert模型的訓練方式進行了對比實驗和分析,并基于此總結出了能夠提升Bert效果的訓練方法。相比Bert,RoBerta的主要改進在于3個方面。首先采用了dynamic mask,即每個文本進入訓練時動態mask掉部分token,相比原來的Bert,可以達到同一個文本在不同epoch被mask掉的token不同,相當于做了一個數據增強。其次,分析了訓練樣本應該如何構造,原來的Bert采用segment pair的形式,訓練樣本為兩個segment組合到一起并使用NSP任務預測兩個任務是否相關。RoBERTa發現從同一個document構造輸入單句子的輸入文本而非pair對,并且不使用NSP任務,效果會有一定提升。最后,RoBERTa增大了batch size以及對BPE(輸入文本的分詞方法進行了升級。

ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS(2020)提出了一個輕量級的Bert模型,以此降低Bert的運行開銷。為了減少Bert資源開銷,本文主要提出了兩個優化:Factorized embedding parameterization以及Cross-layer parameter sharing。Factorized embedding parameterization對輸入的embedding進行分解,原始的Bert將token輸入的embedding維度E和模型隱藏層維度H綁定了,即E=H,前者表示每個token固有信息,后者表示每個token結合了上下文的動態信息,后者被證明是更重要的。因此本文提出可以讓E和H接綁,選擇一個較小的E不會影響模型效果,同時顯著降低了由于輸入詞表V變大帶來的內存開銷上升。具體的,將E變成遠小于H的維度,再用一層全連接將輸入embedding映射到H維。這樣模型embedding部分參數量從V*H下降到了V*E+E*H。Cross-layer parameter sharing讓Bert每層的參數是共享的,以此來減小模型參數量。

除了上述兩個降低Bert運行開銷的優化外,ALBERT提出了inter-senetnce loss這一新的優化目標。原來Bert中的NSP任務可以理解為topic prediction和coherence prediction兩個任務。其中topic prediction是一種特別簡單的任務,由于其任務的簡單性,導致coherence prediction學習程度不足。本文提出將coherence prediction單獨分離出來,相比Bert,正樣本仍然是一個document相鄰的兩個segment,負樣本變成這兩個segment的順序交換。

ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS(ICLR 2020)對pretrain階段的MLM任務進行了優化。該方法的核心思路采用了GAN的思路。模型包括一個generator 和一個discriminator。輸入文本仍然會被隨機mask,然后generator會生成被mask掉的token,這里和MLM類似。而discriminator會判斷每個位置的token是否是generator生成的(如果generator正好生成了正確的token,也認為其生成的是正確的)。通過這種對抗學習的方式,讓discriminator預測被mask掉的token能力逐漸增強,也即從文本中提取信息的能力增強。最終的預訓練模型使用的是discriminator部分。ELECTRA的缺點在于由于有了一個單獨的Generator,模型整體開銷會更大,Generator一般采用一個參數量較少的MLM。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

4.引入知識的預訓練

ERNIE: Enhanced Language Representation with Informative Entities(2019)從知識增強的角度對Bert進行優化。相比原來的Bert,ERNIE引入了如知識圖譜等外部知識信息。這樣的好處在于,有一些文本如果不知道某些詞組代表一個實體的話,模型是很難學習的,例如一些人名、地名等。如下面的例子,不知道橘子中的這些實體是書名、歌名,就無法識別出作者的職業。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

ERNIE在Bert中引入了知識圖譜中的實體信息,模型結構如下圖。模型主要分為T-Encoder和K-Encoder兩個部分。T-Encoder類似Bert,從輸入的文本上提取每個token的信息表示。K-Encoder主要是引入知識信息,將輸入文本中的實體識別出來,然后獲取這些實體的embedding(利用TransE在構造好的知識圖譜上預訓練得到),然后將token的embedding和實體的embedding進行一個融合,融合方法是將實體embedding添加到對應token序列的位置。每層融合輸入上一層的token embedding和entity embedding,生成新的token embedding和entity embedding,公式可以表示為:

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

此外,ERNIE在預訓練階段增加了token-entity relation mask任務,在20%的entity上,會mask掉token和entity的對齊關系,讓模型來預測當前token對應的是哪個entity。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

此外,還有一個同名工作ERNIE: Enhanced Representation through Knowledge Integration(2019)也使用了類似的思路,希望通過引入外部知識信息提升預訓練模型效果。和Bert主要差別在于,本文將MLM任務分成basic-level、phrase-level、entity-level三種類型,在entity-level mask中,mask掉的不是單個token,而是輸入文本中某個entity對應的連續多個token,其和Bert的差異如下圖。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

后面這篇工作后續又推出了2.0版本,ERNIE 2.0: A Continual Pre-Training Framework for Language Understanding(2019)。該工作在pretrain階段引入了很多task來輔助pretrain階段的學習。首先構造pretrain階段的任務,主要是無監督或弱監督的訓練數據容易獲得的任務,同時也會引入知識圖譜中的信息構造一些訓練任務。接下來,本文采用continual multitask learning的方式,不斷構造新的任務,并且以增量的方式進行多任務學習,每來一個任務都把歷史所有任務放到一起進行多任務學習,避免忘記歷史學到的知識。本文的核心點在于提出的多種構造預訓練任務的方式,包括Knowledge Masking Task(即上一篇ERNIE中的對entity或phrase進行mask)、Capitalization Prediction Task、Token-Document Relation Prediction Task等,感興趣的同學可以閱讀論文深入了解。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

5.其他類型的預訓練語言模型

在GPT和BERT的啟發下,后續涌現了很多其他類型的預訓練語言模型,這里主要介紹UniLM、XLNet、BART、T5等4種。

Unified Language Model Pre-training for Natural Language Understanding and Generation(NIPS 2019)提出了UniLM預訓練語言模型。本文首先總結了之前語言模型的特點:EMLo采用前向+后向LSTM、GPT采用從左至右的單向Transformer、BERT采用雙向Attention。雖然BERT的雙向Attention取得很好效果,但是這種特性也導致其無法像GPT等使用單向方法的語言模型一樣適用于文本生成這種任務。UniLM融合了3種語言模型優化目標,通過精巧的控制mask方式來在一個模型中同時實現了3種語言模型優化任務,在pretrain過程交替使用3種優化目標。下圖比較形象的描述了UniLM是如何利用mask機制來控制3種不同的優化任務,核心思路是利用mask控制生成每個token時考慮哪些上下文的信息。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

XLNet: Generalized Autoregressive Pretraining for Language Understanding(NIPS 2019)提出了XLNet模型,融合了BERT和GPT這兩類預訓練語言模型的優點,并且解決了BERT中pretrain和finetune階段存在不一致的問題(pretrain階段添加mask標記,finetune過程并沒有mask標記)。本文將無監督語言模型分成兩類,一類是AR自回歸模型,如GPT、ELMo這種使用單向語言模型建模概率分布的方法;另一類是AE自編嗎模型,如BERT這種通過預測句子中token的方法。XLNet融合了AR模型和AE模型各自的優點,既能建模概率密度,適用于文本生成類任務,又能充分使用雙向上下文信息。XLNet實現AR和AE融合的主要思路為,對輸入文本進行排列組合,然后對于每個排列組合使用AR的方式訓練,不同排列組合使每個token都能和其他token進行信息交互,同時每次訓練又都是AR的。但是,實現這種模式也存在很多問題,文中針對這些問題提出了解法,由于篇幅原因具體內容我們會在后續相關文章再進行詳細介紹。

BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension(2019)提出了一種新的預訓練范式,包括兩個階段:首先原文本使用某種noise function進行破壞,然后使用sequence-to-sequence模型還原原始的輸入文本。下圖中左側為Bert的訓練方式,中間為GPT的訓練方式,右側為BART的訓練方式。首先,將原始輸入文本使用某些noise function,得到被破壞的文本。這個文本會輸入到類似Bert的Encoder中。在得到被破壞文本的編碼后,使用一個類似GPT的結構,采用自回歸的方式還原出被破壞之前的文本。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

文中嘗試了多種類型的noise function,如token masking、sentence permutation、text infilling等,其中sentence permutation+text infilling的方式取得了最好的效果。Text infilling指的是隨機mask某些span。下圖展示了文中提出的一些noise function方法。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer(2023)統一了各種類型的文本到文本任務,提出了一種統一的Encoder-Decoder語言模型,該方法也是目前業內很多其他領域的大模型使用最多的架構。文中對Encoder-Decoder、純Decoder、UniLM等方式進行了對比驗證,發現Encoder-Decoder的效果是最優的。通過prompt將所有NLP任務都統一成文本到文本的生成任務,訓練統一的T5模型。

大模型系列:一文匯總16個深度語言模型代表工作-AI.x社區

6.總結

本文介紹了預訓練語言模型的發展歷程,包括EMLo、BERT、GPT等經典模型,也包括在此基礎上的一些改進創新。這一階段屬于深度學習語言模型高速發展的階段,整體基于pretrain-finetune的范式解決各類NLP問題。在后續的章節中,會為大家介紹大模型階段語言模型的進一步發展,包括ChatGPT、DeepSeek、PaLM等各類成熟的大模型。

想進行大模型交流的同學,可以掃碼加群(或加yuanyuanAI,備注【大模型+機構】,共同探討大模型相關技術。

本文轉載自??圓圓的算法筆記???,作者: Fareise


已于2025-4-8 09:57:43修改
收藏
回復
舉報
回復
相關推薦
****av在线网毛片| 久久久久性色av无码一区二区| yellow在线观看网址| 国产99久久精品| 久久久久国色av免费观看性色| 日韩精品国产一区| 亚洲天堂手机| 欧美激情综合五月色丁香 | 蜜臀久久久久久999| 亚洲国产不卡| 欧美绝品在线观看成人午夜影视| 桥本有菜av在线| 中文在线免费观看| 欧美精品一级| 国产亚洲精品综合一区91| 亚洲精品久久久中文字幕| 天天在线视频色| 国产精品一区二区在线观看不卡| 欧美久久精品午夜青青大伊人 | 亚洲欧美韩国| 中文字幕+乱码+中文字幕一区| 91久久综合亚洲鲁鲁五月天| 国产精久久久久久| 免费精品国产的网站免费观看| 欧美日韩午夜在线| 中文字幕久久一区| 午夜影院免费体验区| 蓝色福利精品导航| 国内精品小视频| 老司机福利在线观看| 国产精品调教视频| 欧美日韩精品欧美日韩精品一| 日本中文字幕一级片| 邻居大乳一区二区三区| 国产精品一品视频| 国产91av在线| 蜜臀久久精品久久久用户群体| 同性恋视频一区| 555www色欧美视频| 欧洲熟妇精品视频| f2c人成在线观看免费视频| 国产精品区一区二区三区| 国产精品一区二区三区在线| 在线中文字幕网站| 亚洲精品1234| 欧美激情在线视频二区| 91大神福利视频| 激情五月综合网| 亚洲二区中文字幕| 亚洲国产欧美日韩在线| 黄色精品视频网站| 五月综合激情婷婷六月色窝| 中文字幕一区综合| 国产高清在线| 国产成人精品免费在线| 国产精品视频中文字幕91| 色网站在线播放| 国产精品红桃| 久久网福利资源网站| 快灬快灬一下爽蜜桃在线观看| 开心激情综合| 精品久久久久久无| 少妇高潮一69aⅹ| 国产精品久久免费视频| 欧美无砖砖区免费| 91网址在线播放| 一区二区视频免费完整版观看| 午夜a成v人精品| 欧美大片在线播放| 日本黄色免费在线| 午夜av电影一区| 成人免费在线小视频| 竹内纱里奈兽皇系列在线观看| 亚洲国产中文字幕在线视频综合| 成人污网站在线观看| 尤物在线网址| 亚洲欧美色一区| 欧美另类videosbestsex日本| 毛片在线看网站| 亚洲国产精品激情在线观看| 日韩电影免费观看高清完整| 免费理论片在线观看播放老| 99re热视频这里只精品| 久久波多野结衣| 神马精品久久| 久久婷婷国产综合国色天香| 区一区二区三区中文字幕| xxxxx日韩| 国产精品美女久久久久久2018| 亚洲第一导航| 国产在线激情| 亚洲精品成人精品456| 久久久久久久久久久久久国产| 色黄网站在线观看| 精品国产乱码久久久久酒店| 欧美视频第一区| 午夜av成人| 91精品国产综合久久久蜜臀图片| 中文字幕一二三区| 欧美三级电影在线| 永久免费看mv网站入口亚洲| 国产一级淫片久久久片a级| 999精品视频| 欧美极度另类性三渗透| 少妇高潮av久久久久久| 狠狠久久亚洲欧美| 国产中文一区二区| 高清在线观看av| 亚洲男女毛片无遮挡| 国产1区2区3区中文字幕| 九色porny丨首页入口在线| 欧美视频在线不卡| 老熟女高潮一区二区三区| 亚洲激情播播| 久久成人18免费网站| 欧美三级一区二区三区| 久久成人精品无人区| 超碰97国产在线| 国产九九在线| 亚洲激情欧美激情| 欧美一级黄色片视频| 巨大黑人极品videos精品| 日韩欧美成人午夜| 公肉吊粗大爽色翁浪妇视频| 综合久久久久| 国产va免费精品高清在线观看 | 八戒八戒神马在线电影| 精品久久久久久久久中文字幕| 国产精品333| 国产精品传媒麻豆hd| 亚洲国产成人精品女人久久久| 国产三级在线观看完整版| 精品动漫3d一区二区三区免费| 日韩免费观看高清| 懂色av蜜臀av粉嫩av分享吧| 国产精品久久夜| 奇米精品一区二区三区| 美国十次综合久久| 日韩理论片久久| 91视频综合网| 老色鬼精品视频在线观看播放| 久久国产精品一区二区三区四区| av文字幕在线观看| 欧美私人免费视频| 欧美色图亚洲激情| 亚洲视频福利| 亚洲在线观看视频网站| 国产福利第一视频在线播放| 天天色图综合网| 精品国产aⅴ一区二区三区东京热| 国产欧美一区二区精品久久久| 欧美精品激情视频| 国产高清免费观看| 国产精品丝袜一区| 国内自拍视频一区| 在线一级成人| 午夜美女久久久久爽久久| 亚洲国产精品二区| 亚洲欧美一区二区在线观看| 亚洲三级视频网站| 在线看成人短视频| 日韩av第一页| 男人的天堂在线| 日韩欧美成人精品| 免费成人深夜夜行p站| 日韩香蕉视频| 国内精品国语自产拍在线观看| 四虎亚洲精品| 日韩无一区二区| 超碰手机在线观看| 国内精品伊人久久久久av影院 | www.豆豆成人网.com| 久久的精品视频| av网站在线免费看| 亚洲综合在线观看视频| 精品人妻二区中文字幕| 亚洲视频精品| 国产乱子伦精品| 国产伦子伦对白在线播放观看| 亚洲第一区在线观看| 日本三级视频在线| wwwwxxxxx欧美| 99精品视频播放| 国产探花一区| 国产九九精品视频| 午夜激情视频在线观看| 欧美日韩不卡视频| 国产美女久久久久久| 国产一区二区美女| 成人免费观看在线| 六月丁香久久丫| 日本精品一区二区三区在线播放视频| 日本a一级在线免费播放| 欧洲精品一区二区| www.97视频| 岛国av在线一区| 日韩av片在线看| 日本一区二区高清不卡| 亚洲一区中文字幕| 丝袜诱惑一区二区| 久久亚洲精品国产亚洲老地址| 少妇一级淫片免费看| 欧美疯狂性受xxxxx喷水图片| 国产精彩视频在线观看| 一区在线观看免费| 久久精品老司机| 国产精品亚洲一区二区三区妖精| 成人亚洲视频在线观看| 最新亚洲视频| 国产 国语对白 露脸| 欧美午夜精彩| 久久精品国产美女| 精品视频一二| 国产欧美精品在线| 捆绑调教日本一区二区三区| 欧美老少做受xxxx高潮| 在线免费看a| 亚洲剧情一区二区| 三级网站在线看| 日韩欧美专区在线| 91 中文字幕| 欧美综合欧美视频| 国产毛片aaa| 亚洲成va人在线观看| 动漫性做爰视频| 国产精品久久久久aaaa樱花| 中文字幕一区二区久久人妻网站| 丁香天五香天堂综合| 亚洲男人天堂2021| 狠狠色狠狠色合久久伊人| 日本a√在线观看| 日日摸夜夜添夜夜添亚洲女人| 日韩a∨精品日韩在线观看| 欧美三级午夜理伦三级中文幕| 一区二区在线观| 欧美mv日韩| 午夜精品一区二区在线观看| 国产精品一国产精品| 久久亚洲综合网| 欧美日韩一区二区三区四区不卡 | 99re精彩视频| 蜜臀av性久久久久蜜臀av麻豆| 成年人视频在线免费| 欧美亚洲在线| wwwxxx黄色片| 日韩精品欧美精品| 久久久精品麻豆| 蜜臀av性久久久久蜜臀aⅴ四虎 | 日韩午夜视频在线| 国产精品一区二区性色av| 欧美日韩亚洲国产| 国产精品色视频| 青娱乐极品盛宴一区二区| 91精品国产自产在线观看永久| 六九午夜精品视频| 91精品久久久久久久久久久久久| 欧美三级电影网址| 91热精品视频| 中文无码日韩欧| 精品欧美一区二区久久久伦| 三级精品视频| 手机在线观看国产精品| 91精品蜜臀一区二区三区在线| 四虎影院一区二区| 激情综合久久| 毛片av免费在线观看| 免费成人在线视频观看| www.超碰97.com| 国产ts人妖一区二区| 中文字幕一区三区久久女搜查官| 91丨九色丨尤物| 国产sm调教视频| 亚洲欧洲日韩av| 久久激情免费视频| 一本大道久久a久久精品综合| 国产精品无码粉嫩小泬| 91精品国产乱码| 天堂中文在线8| 在线亚洲国产精品网| 99福利在线| 国产成人亚洲综合91精品| 色8久久久久| 久久99精品久久久久子伦| 久久国产亚洲| 青青青青草视频| 青青草国产精品97视觉盛宴| 青娱乐国产精品视频| 26uuu欧美日本| 91嫩草|国产丨精品入口| 亚洲一区二区三区在线| 91黑人精品一区二区三区| 日韩一区二区三区四区| 欧美91精品久久久久国产性生爱| 久久精品99久久久香蕉| 大菠萝精品导航| 91亚洲一区精品| 亚洲人成网77777色在线播放| 一区二区三视频| 亚洲一区欧美二区| 中文字幕一二三区| 欧美国产在线观看| 国产一级二级三级视频| 欧美午夜视频网站| 日本高清视频免费看| 色偷偷噜噜噜亚洲男人| 在线观看的黄色| 99热99热| 国产精品97| 国产日韩一区二区在线观看| 国产福利精品导航| 国产三级在线观看完整版| 欧美日韩精品在线| 国内精品久久久久久久久久久| 国产一区二区三区毛片| 超碰在线99| 亚洲在线观看视频| 国产精品99久久精品| 97公开免费视频| 91污片在线观看| 国产一级免费av| 欧美一区二区三区不卡| 亚洲免费视频一区二区三区| 清纯唯美日韩制服另类| 6080亚洲理论片在线观看| 中文字幕av久久| 美女网站一区二区| 欧美 日韩 成人| 色悠悠亚洲一区二区| 午夜国产在线视频| 午夜精品一区二区三区视频免费看| 精品亚洲二区| 中文字幕一区二区三区四区五区人 | 亚洲熟妇无码乱子av电影| 精品国内二区三区| 一区二区三区伦理| 91精品黄色| 在线精品国产| 日日夜夜精品视频免费观看 | 国产亚洲视频在线| 桃色一区二区| 日本一区二区精品| 玖玖精品视频| 久久婷婷五月综合| 在线精品视频一区二区三四| 黄色电影免费在线看| 国产精品第一区| 日韩成人三级| 五月天开心婷婷| 亚洲少妇30p| 国产草草影院ccyycom| 欧美巨大黑人极品精男| 一区二区三区高清在线观看| 国产成人亚洲综合无码| 国产成人午夜电影网| 久久久久成人网站| 亚洲激情免费观看| 乡村艳史在线观看| 日韩欧美99| 久久99精品久久久久久国产越南 | www日本在线观看| 亚洲国产视频一区| 天天摸天天干天天操| 欧美一级淫片aaaaaaa视频| 欧美猛男同性videos| 久久99999| 亚洲精品一二三| 亚洲美女福利视频| 青青草原成人在线视频| 日韩精品欧美| 黄页网站在线看| 午夜电影一区二区| 福利视频在线播放| 91亚洲va在线va天堂va国| 在线看片一区| 中文字幕一区二区三区人妻不卡| 在线观看日韩av先锋影音电影院| 99re热久久这里只有精品34| 91久久精品国产91久久性色tv| 亚洲精品四区| 国产精品免费无码| 日韩三级视频中文字幕| 蜜桃麻豆影像在线观看| 日韩色妇久久av| 国产老妇另类xxxxx| 免费观看成人毛片| 久久天天躁狠狠躁夜夜躁 | 国产成人在线观看免费网站| 日韩精品一区二区三| 一区二区福利视频| 999久久久久久久久6666| 免费在线观看日韩视频| 伊人一区二区三区| 免费在线黄色网址| 成人区精品一区二区| 日韩国产欧美在线观看| 久久久久久国产精品视频| 夜夜嗨av色综合久久久综合网| 亚洲电影一区| 色婷婷成人在线| 五月开心婷婷久久|