精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

美團獲得小樣本學習榜單FewCLUE第一!Prompt Learning+自訓練實戰

原創 精選
人工智能 新聞
近日,美團搜索與NLP部NLP中心語義理解團隊的小樣本學習模型FSL++在中文小樣本語言理解權威評測基準FewCLUE榜單登頂,在自然語言推理(OCNLI)單任務中取得第一,并在極少數樣本(一個類別僅100余個)的條件下,在新聞分類(TNEWS)、科學文獻學科分類(CSLDCP)任務上超過了人類識別精確度。

作者:駱穎 徐俊 謝睿等

1 概述

CLUE(Chinese Language Understanding Evaluation)[1]是中文語言理解權威測評榜單,包含了文本分類、句間關系、閱讀理解等眾多語義分析和語義理解類子任務,對學術界和工業界都產生了較大的影響。

圖片

圖1 FewCLUE榜單(截止到2022-04-18)

FewCLUE[2,3]是CLUE中專門用于中文小樣本學習評測的一個子榜,旨在結合預訓練語言模型通用和強大的泛化能力,探索小樣本學習最佳模型和在中文上的實踐。FewCLUE的部分數據集只有一百多條有標簽樣本,可以衡量模型在極少有標簽樣本下的泛化性能,發布后吸引了包括網易、微信AI、阿里巴巴、IDEA研究院、浪潮人工智能研究院等多家企業與研究院的參與。不久前,美團平臺搜索與NLP部NLP中心語義理解團隊的小樣本學習模型FSL++以優越的性能在FewCLUE榜單上取得第一名,達到SOTA水平。

2 方法介紹

大規模預訓練模型雖然在各大任務里面取得非常好的效果,但是在特定的任務上,還是需要許多標注數據。美團的各個業務中,有著豐富的NLP場景,往往需要較高的人工標注成本。在業務發展早期或者新的業務需求需要快速上線時,往往會出現標注樣本不足的現象,使用傳統Pretrain(預訓練)+ Fine-Tune(微調)的深度學習訓練方法往往達不到理想的指標要求,因此研究小樣本場景的模型訓練問題就變得非常必要。

本文提出了一套大模型 + 小樣本的聯合訓練方案FSL++,綜合了模型結構優選、大規模預訓練、樣本增強、集成學習以及自訓練等模型優化策略,最終在中文語言理解權威評測基準下的FewCLUE榜單取得了優異的成績,并且在部分任務上性能超過了人類水平,而在部分任務上(如CLUEWSC)還有一定的提升空間。

FewCLUE發布后,網易伏羲使用自研的EET模型[4],并通過二次訓練增強模型的語義理解能力,再加入模版進行多任務學習;IDEA研究院的二郎神模型[5]在BERT模型的基礎上使用更先進的預訓練技術訓練大模型,在下游任務微調的過程中用加入動態Mask策略的Masked Language Model(MLM)作為輔助任務。這些方法都使用Prompt Learning作為基本的任務架構,跟這些自研的大模型相比,我們的方法主要在Prompt Learning框架的基礎上加入了樣本增強、集成學習以及自學習等模型優化策略,極大地提高模型的任務表現和魯棒性,同時這套方法可以適用于各種預訓練模型,更加靈活便捷。

FSL++整體模型結構如下圖2所示。FewCLUE數據集為每個任務提供160條有標簽數據以及接近兩萬條無標簽數據。本次FewCLUE實踐中,我們先在Fine-Tune階段構造多模板Prompt Learning,并對有標簽數據采用對抗訓練、對比學習、Mixup等增強策略。由于這些數據增強策略采用不同的增強原理,可以認為這些模型之間差異性比較顯著,經過集成學習之后會有比較好的效果。所以在采用數據增強策略進行訓練以后,我們擁有了多個弱監督模型,并且用這些弱監督模型在無標簽數據上進行預測,得到無標簽數據的偽標簽分布。之后,我們將多個經過不同的數據增強模型預測得到的無標簽數據的偽標簽分布整合起來,得到一份總的無標簽數據的偽標簽分布,接著重新構造多模板Prompt Learning,并再次使用數據增強策略,選擇最優策略。目前,我們的實驗只進行一輪迭代,也可以嘗試多輪迭代,不過隨著迭代次數增加,提升也不再明顯。

圖片

圖2 FSL++模型框架

2.1 增強預訓練

預訓練語言模型是在龐大的無標簽語料庫上進行訓練的。例如,RoBERTa[6]在160GB以上的文本進行訓練,包括百科全書、新聞文章、文學作品和Web內容。通過這些模型學習到的表示,在包含多種來源的各種大小的數據集的任務中實現出色的性能。

FSL++模型使用RoBERTa-large模型作為基礎模型,并且采用融入領域知識的Domain-Adaptive Pretraining (DAPT)[7]預訓練方法和融入任務知識的Task-Adaptive Pretraining (TAPT)[7]。DAPT旨在預訓練模型的基礎上,增加大量領域內無標簽文本繼續訓練語言模型,之后再在指定任務的數據集上進行微調。

對目標文本領域進行繼續預訓練,可以提高語言模型的性能,尤其是在與目標文本領域相關的下游任務上的性能。并且,預訓練文本與任務領域的相關度越高,帶來的提升越大。在本次實踐中,我們最終使用了在100G包含娛樂節目、體育、健康、國際事務、電影、名人等各個領域的語料的CLUE Vocab[8]上預訓練得到的RoBERTa Large模型。TAPT指在預訓練模型的基礎上,增加數量較少但與任務直接相關的無標簽語料進行預訓練。針對TAPT任務,我們選擇使用的預訓練數據是FewCLUE榜單為每個任務提供的無標簽數據。

除此之外,在針對句間關系任務,如中文自然語言推理任務OCNLI、中文對話短文本匹配任務BUSTM的實踐中,我們使用在其他句間關系任務如中文自然語言推理數據集CMNLI、中文短文本相似度數據集LCQMC上進行預訓練的模型參數作為初始參數,相比直接用原始模型完成任務,也能提升一定的效果。

2.2 模型結構

FewCLUE包含多種任務形式,我們為每種任務選擇了合適的模型結構。文本分類任務和機器閱讀理解(MRC)任務本身的類別詞就攜帶了信息,因此更適合建模為Masked Language Model(MLM)形式;而句間關系任務判斷兩個句子的相關性,更類似于Next Sentence Prediction(NSP)[9]任務形式。因此,我們為分類任務和閱讀理解任務選擇PET[10]模型,為句間關系任務選擇EFL[11]模型,EFL方法可以通過全局采樣構造負樣本,學習到更魯棒的分類器。

2.2.1 Prompt Learning

Prompt Learning的主要目標是盡可能減小預訓練目標與下游微調目標的差距。通常現有的預訓練任務均包含MLM損失函數,但是下游的任務則并未采用MLM,而是引入新的分類器,使得預訓練任務和下游任務出現了不一致。Prompt Learning不引入額外的分類器或其他參數,而是通過拼接模板(Template,即為輸入數據拼接語言片段,從而改造任務為MLM形式)和標簽詞映射(Verbalizer,即為每個標簽在詞表中找到對應的詞,從而為MLM任務設定預測目標),使得模型可以在少量樣本的條件下在下游任務中使用。

圖片圖3 Prompt Learning方法完成情感分析任務的流程圖

以圖3展示的電商評價情感分析任務EPRSTMT為例。給定文本“這個電影真不錯,值得第二次觀看!”,傳統的文本分類則是在CLS部分的Embedding接上分類器,并映射到0-1分類上(0:負向,1:正向)。這種方法在小樣本場景下需要訓練新的分類器,比較難獲得好的效果。而基于Prompt Learning的方法則是創建模板“這是一條 [MASK] 評。”,再將模板與原文進行拼接,訓練時通過語言模型預測[MASK]位置的詞,再將其映射到對應的類別上(好:正向, 差:負向)。

由于缺乏足夠數據,有時很難確定表現最好的模板和標簽詞映射。因此,也可以采用多模板與多標簽詞映射的設計。通過設計多個模板,最終的結果采用多個模板的結果的整合,或設計一對多的標簽詞映射,讓一個標簽對應多個詞。同上述例子,可以設計如下模板組合(左:同一個句子的多模板,右:多標簽映射)。

圖片

圖4 PET多模板與多標簽映射圖

任務樣例

圖片

表1 FewCLUE數據集中PET模板構建

2.2.2 EFL

EFL模型將兩個句子拼接在一起,用輸出層的[CLS]位置處的Embedding后接一個分類器完成預測。EFL的訓練過程中,除了訓練集的樣本,還會進行負樣本構造,訓練過程中,在每個Batch里隨機選擇其他數據中的句子作為負樣本,通過構造負樣本進行數據增強。雖然EFL模型需要訓練新的分類器,但目前有很多公開的文本蘊含/句間關系數據集,如CMNLI、LCQMC等,可以通過在這些樣本上進行持續學習(continue-train),再將學習到的參數遷移到小樣本場景中,用FewCLUE的任務數據集進行進一步微調。

任務樣例

圖片表2 FewCLUE數據集中EFL模板構建

2.3 數據增強

數據增強方法主要有樣本增強和Embedding增強。NLP領域中,數據增強的目的是在不改變語義的前提下擴充文本數據。主要的方法包括簡單文本替換、使用語言模型生成相似句子等,我們嘗試過EDA等擴充文本數據的方法,但是一個詞的變化就可能導致整個句子的意思發生翻轉,經過替換的文本攜帶大量噪音,所以很難用簡單的規則樣本變化產生足夠的增強數據。而Embedding增強,則不再對輸入進行操作,轉而在Embedding層面進行操作,可以通過對Embedding增加擾動或者插值等方式提升模型的魯棒性。

因此,本次實踐中我們主要進行Embedding增強。我們用的數據增強策略分別有Mixup[12]、Manifold-Mixup[13]、對抗訓練(Adversarial training, AT[14]和對比學習R-drop[15]

圖片表3 數據增強策略簡述

Mixup通過對輸入數據進行簡單的線性變換,構造新的組合樣本和組合標簽,可以增強模型的泛化能力。在各種有監督任務或者半監督任務上,使用Mixup都能極大提高模型的泛化能力。Mixup方法可以視為正則化操作,它要求模型在特征層面生成的組合特征滿足線性約束,并且利用這種約束對模型施加正則化。直觀來看,當模型的輸入為另外兩個輸入的線性組合時,其輸出也是這兩個數據單獨輸入模型后所得輸出的線性組合,其實就是要求模型近似為一個線性系統。

Manifold Mixup將上述的Mixup操作泛化到特征上。因為特征具有更高階的語義信息,所以在其維度上插值可能會產生更有意義的樣本。在類似于BERT[9]、RoBERTa[6]的模型中,隨機選擇層數k,對該層的特征表示進行Mixup插值。普通的Mixup的插值發生在輸出層Embedding部分,而Manifold Mixup相當于把這一系列插值操作加入到語言模型內部的Transformers結構的隨機某層中。

對抗訓練通過在輸入樣本上增加微小的擾動來顯著提高模型Loss。對抗訓練就是訓練一個能有效識別原始樣本和對抗樣本的模型。基本原理就是通過添加擾動構造一些對抗樣本,交給模型去訓練,提高模型在遇到對抗樣本時的魯棒性,同時也能提高模型的表現和泛化能力。對抗樣本需要具有兩個特點,分別是:

  1. 相對于原始輸入,所添加的擾動是微小的。
  2. 能使模型犯錯。對抗訓練有兩個作用,分別是提高模型對惡意攻擊的魯棒性和提高模型的泛化能力。

R-Drop對同一個句子做兩次Dropout,并且強制由Dropout生成的不同子模型的輸出概率保持一致。Dropout的引入雖然效果很好,但是它會導致訓練和推理過程的不一致性問題。為緩解這種訓練推理過程的不一致性,R-Drop對Dropout進行正則化處理,在兩個子模型產生的輸出中增加對輸出數據分布的限制,引入數據分布度量的KL散度損失,使得Batch內同一個樣本生成的兩個數據分布盡量接近,具有分布一致性。具體來說,對于每個訓練樣本,R-Drop最小化了由不同Dropout生成的子模型的輸出概率之間的KL 散度。R-Drop作為一種訓練思想,可以用到大部分有監督或半監督的訓練中,通用性強。

我們使用的三種數據增強策略,Mixup是在語言模型的輸出層Embedding和語言模型的內部隨機某層Transformers的輸出層中做兩個樣本的線性變化,對抗訓練是在樣本上增加微小的擾動,而對比學習是對同一個句子做兩次Dropout形成正樣本對,再用KL散度限制兩個子模型保持一致。三種策略都是通過在Embedding完成一些操作來增強模型的泛化性,經過不同策略得到的模型分別都具有不同的偏好,這就為下一步的集成學習提供了條件。

2.4 集成學習&自訓練

集成學習可以組合多個弱監督模型,以期得到一個更好更全面的強監督模型。集成學習潛在的思想是即便某一個弱分類器得到了錯誤的預測,其他的弱分類器也可以將錯誤糾正回來。如果待組合的各個模型之間差異性比較顯著,那么集成學習之后通常會有一個較好的結果。

自訓練使用少量的標記數據和大量的未標記數據對模型進行聯合訓練,首先使用經過訓練的分類器來預測所有未標記數據的標簽,然后選擇置信度較高的標簽作為偽標簽數據,將偽標記數據與人工標記的訓練數據聯合起來重新訓練分類器。

集成學習+自訓練是一套可以利用多個模型以及無標簽數據的方案。這其中,集成學習的一般步驟為:訓練多個不同的弱監督模型,分別用每個模型預測無標簽數據的標簽概率分布,計算標簽概率分布的加權和,得到無標簽數據的偽標簽概率分布。自訓練指訓練一個模型用于組合其他各個模型,其一般步驟為:訓練多個Teacher模型,Student模型學習偽標簽概率分布中高置信度樣本的Soft Prediction,Student模型作為最后的強學習器。

圖片圖5 集成學習+自訓練結構

在本次FewCLUE實踐中,我們先在Fine-Tune階段構造多模板Prompt Learning,并對有標注數據采用對抗訓練、對比學習、Mixup等增強策略。由于這些數據增強策略采用不同的增強原理,可以認為這些模型之間差異性比較顯著,經過集成學習之后會有比較好的效果。

在采用數據增強策略進行訓練以后,我們擁有了多個弱監督模型,并且用這些弱監督模型在無標簽數據上進行預測,得到無標簽數據的偽標簽分布。之后,我們將多個經過不同的數據增強模型預測得到的無標簽數據的偽標簽分布整合起來,得到一份總的無標簽數據的偽標簽分布。篩選偽標簽數據的過程中,我們不一定會選擇置信度最高的樣本,因為如果每個數據增強模型給出的置信度都很高,說明這個樣本可能是容易學習的樣本,不一定有很大價值。

我們綜合多個數據增強模型給出的置信度,盡量選擇置信度較高,但是又不容易學習的樣本(比如多個模型預測不全部一致)。接著用標注數據和偽標注數據的集合重新構造多模板Prompt Learning,再次使用數據增強策略,并選擇最好的策略。目前,我們的實驗目前只進行一輪迭代,也可以嘗試多輪迭代,不過隨著迭代次數增加,提升也會減少,不再顯著。

3 實驗結果

3.1 數據集介紹

FewCLUE榜單提供了9個任務,其中分別為4個文本分類任務,2個句間關系任務和3個閱讀理解任務。文本分類任務有電商評價情感分析、科學文獻分類、新聞分類和App應用描述主題分類任務。主要歸類為短文本二分類、短文本多分類和長文本多分類。其中有的任務類別眾多,超過100類,并且出現了類別不均衡問題。句間關系任務有自然語言推理和短文本匹配任務。閱讀理解任務則有成語閱讀理解選擇填空,摘要判斷關鍵詞判別和代詞消歧任務。每個任務大體提供了160條有標簽數據和兩萬條左右的無標簽數據。因為長文本分類任務類別眾多,過于困難,也提供了更多的有標簽數據。詳細的任務數據情況如表4所示:

圖片

表4 FewCLUE數據集任務介紹

3.2 實驗對比

表5展示了不同模型和參數量的實驗結果的對比。在RoBERTa Base實驗中,使用PET/EFL模型會超過傳統的直接Fine-Tune模型結果2-28PP。以PET/EFL模型為基礎,為了探索大模型在小樣本場景中的效果,我們在RoBERTa Large上進行了實驗,相對于RoBERTa Base,大模型可以提升模型0.5-13PP;為了更好地利用領域知識,我們進一步在經過CLUE數據集上增強預訓練的RoBERTa Large Clue模型上進行實驗,融入了領域知識的大模型進一步提升結果0.1-9pp。基于此,在之后的實驗中,我們都在RoBERTa Large Clue上進行實驗。

圖片

表5 不同模型和參數量的實驗結果對比 (加粗紅色字體表示最好的結果)

表6展示了在PET/EFL模型上進行數據增強和集成學習實驗結果, 可以發現即使是在大模型上使用數據增強策略,模型也能帶來0.8-9PP的提升,而進一步進行集成學習&自訓練以后,模型表現會繼續提升0.4-4PP。

圖片

表6 基礎模型+數據增強+集成學習實驗效果 (加粗紅色字體表示最好的結果)

其中集成學習+自訓練步驟中,我們嘗試了幾種篩選策略:

  1. 選擇置信度最高的樣本,這種策略帶來的提升在1PP以內,置信度最高的偽標簽樣本中很多是多個模型預測一致且置信度都比較高的樣本,這部分樣本比較容易學習,融入這部分樣本帶來的收益有限。
  2. 選擇置信度高且具有爭議性的樣本(存在至少一個模型和其他模型預測結果不一致,但多個模型總體置信度超過閾值1),這種策略規避了特別容易學習的樣本,又通過設置閾值避免帶來過多臟數據,可以帶來0-3PP的提升;
  3. 融合上面的兩種策略,若多個模型對于一個樣本的預測結果是一致的,我們選擇置信度小于閾值2的樣本;對于存在至少一個模型和其他模型預測結果不一致的,我們選擇置信度大于閾值3的樣本。這種方式同時選擇了置信度較高的樣本保證輸出的可信度,又選擇了較有爭議的樣本保證篩選出來的偽標簽樣本具有較大學習難度,可以帶來0.4-4PP的提升。

4 小樣本學習策略在美團場景的應用

在美團的各個業務中,有著豐富的NLP場景,部分任務可以歸類為文本分類任務和句間關系任務,以上提到的小樣本學習策略已經應用于美團點評的各種場景,期望在數據資源稀少的情況下訓練出比較好的模型。此外,小樣本學習策略已經廣泛應用于美團內部自然語言處理(NLP)平臺的各個NLP算法能力中,在眾多業務場景下落地并取得顯著收益,美團內部的工程師可通過該平臺來體驗NLP中心相關的能力。

文本分類任務

醫美題材分類:對美團和點評的筆記內容按題材分為8類:獵奇、探店、測評、真人案例、治療過程、避坑、效果對比、科普。用戶點擊某一種題材時,返回對應的筆記內容,上線至美團和點評App醫療美容頻道的百科頁、方案頁經驗分享,小樣本學習利用2,989條訓練數據準確率提升1.8PP,達到了89.24%。

攻略識別:從UGC和筆記中挖掘旅游攻略,提供旅游攻略的內容供給,應用于景點精搜下的攻略模塊,召回內容為描述旅游攻略的筆記,小樣本學習利用384條訓練數據準確率提升2PP,達到了87%。

學城文本分類:學城(美團內部知識庫)有大量的用戶文本,經歸納將文本分為17種類別,已有模型在700條數據上訓練,通過小樣本學習,在已有模型上提升模型精度2.5PP,達到84%。

項目篩選:LE生活服務/麗人等業務目前的評價列表頁混排評價的方式不便讓用戶快速找到決策信息,因此需要更有結構化的分類標簽來滿足用戶的需求,小樣本學習在這兩個業務上利用300-500條數據上準確率均達到95%+(多個數據集分別提升1.5-4PP)。

句間關系任務

醫美功效打標:對美團和大眾點評的筆記內容按功效進行召回,功效的類型有:補水、美白、瘦臉、除皺等,上線至醫美頻道頁,有110種功效類型需要打標,小樣本學習僅用2909條訓練數據準確率達到了91.88%(提升2.8PP)。

醫美品牌打標:品牌上游企業有針對旗下產品進行品牌宣傳和營銷的訴求,而內容營銷是當前主流、有效的營銷方式之一。品牌打標就是為每種品牌如“伊膚泉”、“術唯可”召回詳細介紹該品牌的筆記內容,共有103種品牌,已上線至醫美品牌館,小樣本學習僅用1676條訓練數據準確率達到了88.59%(提升2.9PP)。

5 總結

在本次榜單提交中,我們構建了一種基于RoBERTa的語義理解模型,并通過增強預訓練、PET/EFL模型、數據增強和集成學習&自訓練來提升模型的效果。該模型能完成文本分類、句間關系推理任務和幾種閱讀理解任務。

通過參加本次測評任務,我們對小樣本場景下的自然語言理解領域的算法和研究有了更深的認識,也借此對前沿算法的中文落地能力進行了摸底測試,為后續進一步算法研究、算法落地打下了基礎。此外,本次數據集中的任務場景與美團搜索與NLP部的業務場景存在很大相似性,該模型的很多策略也直接應用在實際業務中,直接為業務賦能。

6 本文作者

駱穎、徐俊、謝睿、武威,均來自美團搜索與NLP部/NLP中心。

責任編輯:張燕妮 來源: 美團技術團隊
相關推薦

2021-07-28 11:54:09

阿里云AI自然語言理解

2022-10-30 15:00:40

小樣本學習數據集機器學習

2018-08-03 11:58:07

美團分布式數據處理可視化

2020-10-06 16:28:49

AI

2021-08-19 15:48:05

增量攻擊網絡安全網絡攻擊

2025-01-27 00:57:43

2020-02-12 14:05:41

系統緩存架構

2017-02-20 19:23:13

2015-07-31 11:33:28

美團云

2018-10-29 15:50:23

深度學習工程實踐技術

2022-03-25 10:47:59

架構實踐美團

2022-05-20 11:01:06

模型性能框架

2015-05-28 09:54:33

美團docker容器

2016-11-27 20:43:26

云計算迭代

2013-07-08 10:08:40

海量樣本篩選大數據

2021-07-15 17:31:44

無人機人工智能AI

2013-08-20 13:11:58

技術美團

2022-04-01 15:30:18

語言模型自然語言AI

2018-08-03 09:42:01

人工智能深度學習人臉識別

2022-03-03 16:45:02

美團述職反饋
點贊
收藏

51CTO技術棧公眾號

无码人妻精品一区二区50| 精品视频无码一区二区三区| 国产又粗又猛又黄又爽无遮挡| 一级欧洲+日本+国产| 欧美成人伊人久久综合网| 日韩一级性生活片| 在线观看精品一区二区三区| 国产一区在线观看视频| 777777777亚洲妇女| 美国一级黄色录像| 欧洲在线一区| 欧美一区二区三区人| 欧美日韩在线一| 18av在线视频| 欧美韩国日本一区| 国产偷国产偷亚洲高清97cao| 中国a一片一级一片| 狠狠入ady亚洲精品| 中文字幕在线成人| 中文字幕5566| 国产乱人伦精品一区| 9191国产精品| 成年网站在线播放| 小早川怜子影音先锋在线观看| 亚洲欧美另类综合偷拍| 久久精品国产第一区二区三区最新章节| 中文字幕+乱码+中文乱码www| 狠狠v欧美ⅴ日韩v亚洲v大胸| 日韩欧美中文字幕在线视频 | 中文字幕一区二区三区四区五区六区| 欧美亚洲精品在线观看| 精彩视频一区二区三区| 国产精品美女久久久免费| 五月天婷婷综合网| 亚洲午夜在线| 欧美大奶子在线| 人人艹在线视频| 成人久久久久| 一区二区三区黄色| 调教驯服丰满美艳麻麻在线视频| 亚洲人亚洲人色久| 亚洲国产美女久久久久 | 91网站视频在线观看| 91九色蝌蚪嫩草| 国产男女裸体做爰爽爽| 久久精品国产精品亚洲精品| 国产精品黄色av| 久久精品国产亚洲av麻豆蜜芽| 亚洲综合社区| 97婷婷涩涩精品一区| 国产一级视频在线| 成人影院在线看| 国产精品午夜久久| 亚洲精蜜桃久在线| 午夜视频在线免费观看| 国产精品久久久久一区| 亚洲一区三区| 国产在线高清视频| 亚洲欧美在线视频观看| 国产精品一区二区三区99| 亚洲天堂av在线播放| 免费看黄色的视频| 国产精品一区2区3区| 亚洲性夜色噜噜噜7777| 欧美黄色一级生活片| 欧美色婷婷久久99精品红桃| 中文字幕不卡av| 国产精品久久久免费看| 国产精品久久久久久久久久10秀| 久久色在线播放| 久久97人妻无码一区二区三区| 这里只有精品在线| 久久久久久高潮国产精品视| 免费观看一区二区三区毛片| 免费亚洲网站| 国产精品免费一区| 国产日本精品视频| 成人av电影在线观看| 欧美日韩亚洲免费| 日本www在线观看| 亚洲人被黑人高潮完整版| 国产一区二区片| av资源中文在线| 日本道在线观看一区二区| 精品久久久99| 欧美色图五月天| 正在播放亚洲1区| 麻豆91精品91久久久| 亚洲专区一区| 91最新在线免费观看| 性感美女一级片| 中文字幕一区二区三区色视频| 欧美这里只有精品| www.26天天久久天堂| 日韩欧美电影一二三| 中文字幕丰满乱子伦无码专区| 日韩国产综合| 午夜精品视频网站| 亚洲自拍偷拍另类| 99精品热视频| 真人做人试看60分钟免费| 9i看片成人免费高清| 欧美一区二区视频在线观看2020 | 国产精品jk白丝蜜臀av小说| 一区二区三区视频免费| 久久久久97国产| 久久久水蜜桃av免费网站| 亚洲最大av网站| 高h视频在线| 图片区小说区国产精品视频| 亚洲娇小娇小娇小| 台湾亚洲精品一区二区tv| 另类少妇人与禽zozz0性伦| 日韩精品一区二区亚洲av| 国产成人高清在线| 一区二区三区四区国产| 六月婷婷综合| 亚洲精品短视频| 欧美片一区二区| 蓝色福利精品导航| 日本高清不卡aⅴ免费网站| 91色在线视频| 国产二区视频在线观看| 精品av在线播放| 不卡的一区二区| 国产精品久久久久蜜臀| 国产成人在线一区| 邻家有女韩剧在线观看国语| 午夜精品视频在线观看| 成人做爰69片免费| 午夜精品剧场| 91久久精品国产91久久性色| 国产精品视频二区三区| 欧美午夜宅男影院在线观看| wwwxx日本| 怡红院精品视频在线观看极品| 亚洲一区免费网站| 毛片在线播放a| 欧美视频在线一区二区三区| 69视频在线观看免费| 校园春色综合网| 欧美日韩精品免费看| 天堂中文av在线资源库| 日韩精品免费在线视频观看| 精品成人免费视频| 93久久精品日日躁夜夜躁欧美| 69sex久久精品国产麻豆| 亚洲一区二区电影| 欧美精品在线观看91| 99久久久久成人国产免费| 亚洲色图一区二区三区| 日本中文字幕在线不卡| 欧美在线高清| 国产精品国模大尺度私拍| 福利在线导航136| 日韩电影第一页| 五月婷婷视频在线| 久久精品男人的天堂| 国产视频手机在线播放| 欧美电影免费观看高清| 亚洲a在线观看| 国产深夜视频在线观看| 亚洲精品久久在线| 青青国产在线视频| 成人免费一区二区三区在线观看| 国产不卡的av| 一区视频在线| 欧美精品一区二区视频| 国产精品99| 欧美激情在线| 日韩免费观看在线观看| 大地资源中文在线观看免费版| 欧美日韩专区在线| 青青操国产视频| 2024国产精品视频| 欧美日韩一区二区三区69堂| 国产精品啊啊啊| 久久婷婷开心| 久久夜夜久久| 久久久久亚洲精品成人网小说| 香蕉视频黄色片| 欧美久久久久久蜜桃| 午夜偷拍福利视频| 久久久精品国产99久久精品芒果| 色哟哟精品视频| 欧美色综合网| 三区精品视频观看| 一区二区三区四区高清视频| 欧美最近摘花xxxx摘花| 麻豆视频网站在线观看| 亚洲国产精品久久久久秋霞不卡| 国产一级片av| 亚洲一区二区三区小说| 精品成人无码一区二区三区| 国产成人精品在线看| www日韩视频| 国产精品jizz在线观看美国| 日韩亚洲视频在线| 国产精品网在线观看| 国产精品视频26uuu| 极品在线视频| 久久国产精品久久久久久| 免费在线观看一级毛片| 精品日韩99亚洲| 在线观看一二三区| 富二代精品短视频| 在线免费观看亚洲视频| 国产欧美视频一区二区三区| 这里只有精品在线观看视频| 精品午夜一区二区三区在线观看 | 日韩成人伦理| 这里视频有精品| 免费97视频在线精品国自产拍| 全部免费毛片在线播放网站| 日韩精品中文字幕在线一区| 中文在线字幕av| 欧美午夜片在线免费观看| 久久福利免费视频| 国产人伦精品一区二区| 欧美在线一级片| 国产成人免费在线观看| 亚洲欧美手机在线| 日韩综合一区二区| 国产亚洲欧美在线视频| 国产综合自拍| 久久久久久久久影视| 日韩成人免费| 日韩精品一区二区三区丰满| 日韩电影不卡一区| 国产福利不卡| 天堂va在线高清一区| 国产欧美亚洲精品| 99精品国自产在线| 日本中文字幕成人| 亚洲一区站长工具| 欧美诱惑福利视频| 少妇在线看www| 欧美国产第二页| 性爱视频在线播放| 欧美福利视频网站| 亚洲综合影视| 欧美放荡办公室videos4k| 黄a在线观看| 久久视频在线视频| 黄色国产网站在线播放| 美日韩精品视频免费看| 在线视频观看国产| 欧美人成在线视频| 精品精品导航| 午夜精品理论片| 亚洲天堂电影| 日韩av毛片网| 国产第一精品| 国产在线精品播放| 一区在线不卡| 99伊人久久| 狼人天天伊人久久| 久久精品中文字幕一区二区三区 | 亚洲精品国产嫩草在线观看| 国产91久久婷婷一区二区| 久久天堂av| 91免费视频网站| 一区二区三区欧洲区| 国产欧美日韩视频一区二区三区| 婷婷国产精品| 亚洲不卡1区| 99精品在线观看| 欧美一区二区三区综合| 亚洲理伦在线| 538任你躁在线精品免费| 国产乱人伦精品一区二区在线观看| 两女双腿交缠激烈磨豆腐| 成人免费精品视频| 人人妻人人藻人人爽欧美一区| 欧美激情综合五月色丁香小说| 老司机成人免费视频| 亚洲一区二区三区中文字幕| 中文字幕在线观看视频免费| 欧美老年两性高潮| 秋霞av鲁丝片一区二区| 亚洲欧美综合v| 成人影院www在线观看| 国内精品小视频在线观看| 日韩在线免费| 91在线观看网站| 九色精品91| 在线视频一二三区| 午夜在线观看免费一区| 无尽裸体动漫2d在线观看| 成人福利在线看| 中文字幕黄色网址| 亚洲一二三四在线| 做爰无遮挡三级| 亚洲精品一区二区三区精华液| 国产黄色片在线播放| 久久99久国产精品黄毛片入口| 中国色在线日|韩| 99国产超薄肉色丝袜交足的后果| 午夜a一级毛片亚洲欧洲| 一级黄色录像免费看| 香蕉久久a毛片| 风韵丰满熟妇啪啪区老熟熟女| 欧美国产视频在线| 日本三级黄色大片| 在线综合亚洲欧美在线视频| 日本一二三区在线视频| 欧美高清在线观看| 日韩一区二区三区四区五区| 久久久精品国产一区二区三区| 亚洲高清影视| 欧美黄色性生活| av不卡一区二区三区| 久久久精品视频免费观看| 日韩欧美在线视频免费观看| 成人毛片在线免费观看| 久久久www成人免费精品| 欧美三区四区| 农村寡妇一区二区三区| 在线观看日韩av电影| 欧美专区第二页| 国产精品理论片| 精品无码一区二区三区的天堂| 亚洲精品美女在线观看播放| 天堂av资源在线观看| 成人亲热视频网站| 日韩一区三区| 天天操天天爽天天射| 久久欧美一区二区| 欧美videossex极品| 亚洲国产精品va在线看黑人动漫| 在线免费观看污| 97se亚洲综合在线| 亚洲一区 二区 三区| 99日在线视频| 自拍偷自拍亚洲精品播放| 中文无码精品一区二区三区| 亚洲午夜国产成人av电影男同| 在线天堂新版最新版在线8| 精品视频第一区| 国产精品试看| 国产男女猛烈无遮挡a片漫画| 午夜成人在线视频| 日本成人动漫在线观看| 久久久久中文字幕2018| 国产精品一区二区三区美女| 日韩精品一区在线视频| av一区二区三区黑人| 黄网在线观看视频| 亚洲精品视频在线播放| 欧美电影免费观看| 日韩av在线一区二区三区| 日韩成人一区二区三区在线观看| 精品成人无码一区二区三区| 欧美日韩一二三| 黄色av网站在线播放| 超碰在线97av| 夜夜嗨一区二区| 深爱五月激情网| 在线免费观看日本一区| 在线免费观看黄色网址| 国产欧美一区二区三区久久| 中文无码久久精品| 97人妻精品一区二区三区免费| 精品日本美女福利在线观看| 黄色影院在线播放| 国产日本欧美一区二区三区| 夜间精品视频| 亚洲激情 欧美| 在线免费观看一区| av黄色在线| 久久精品国产一区二区三区日韩| 日本不卡一区二区| 午夜激情福利网| 亚洲福利视频久久| 欧美成a人片在线观看久| 中文字幕av日韩精品| 国产精品资源网站| 亚洲免费在线视频观看| 丝袜亚洲另类欧美重口| 51亚洲精品| 欧美少妇性生活视频| 亚洲视频一区在线| 日本韩国免费观看| 国产精品www网站| 综合五月婷婷| 国精产品一区一区三区免费视频 | 你懂的免费在线观看| 国产一区红桃视频| 日韩视频在线一区二区三区 | 久久久国产精品久久久| 疯狂做受xxxx欧美肥白少妇| 午夜在线小视频| 国模精品一区二区三区| 麻豆国产91在线播放| 精品久久免费视频| 日韩中文视频免费在线观看| 六月丁香久久丫| 天天操精品视频| 91高清在线观看| 波多野结衣精品|