精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

新聞 人工智能
搜索場景下用戶搜索的 query 和召回文章標題(title)的相關性對提升用戶的搜索體驗有很大幫助。

 一、背景介紹

搜索場景下用戶搜索的 query 和召回文章標題(title)的相關性對提升用戶的搜索體驗有很大幫助。query-title 分檔任務要求針對 query 和 title 按文本相關性進行 5 個檔位的分類(1~5 檔),各檔位從需求滿足及語義匹配這兩方面對 query-doc 的相關度進行衡量,檔位越大表示相關性越高,如 1 檔表示文本和語義完全不相關,而 5 檔表示文本和語義高度相關,完全符合 query 的需求。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

我們嘗試將 Bert 模型應用在 query-title 分檔任務上,將 query 和 title 作為句對輸入到 bert 中,取最后一層 cls 向量用做 5 分類(如上圖),最后得到的結果比 LSTM-Attention 交互式匹配模型要好。雖然知道了 bert解決這個問題,我們更好奇的是"為什么":為什么 bert 的表現能這么好?這里面有沒有可解釋的部分呢?

因為 Multi-head-attention 是 bert 的主要組成部分,所以我們從"頭"入手,希望弄清楚各個 head 對 bert 模型有什么作用。為了研究某個 head 對模型的影響,我們需要比較有這個 head 和沒有這個 head 模型的前后表現。這里定義一下 HEAD-MASK 操作,其實就是針對某個 head,直接將這個 head 的 attention 值置成 0,這樣對于任何輸入這個 head 都只能輸出 0 向量。

通過 HEAD-MASK 操作對各個 head 進行對比實驗,發現了下面幾個有趣的點

  • attention-head 很冗余/魯棒,去掉 20%的 head 模型不受影響
  • 各層 transformer 之間不是串行關系,去掉一整層 attention-head 對下層影響不大
  • 各個 head 有固定的功能
    • 某些 head 負責分詞
    • 某些 head 提取語序關系
    • 某些 head 負責提取 query-title 之間 term 匹配關系

下面我們開始實驗正文,看看這些結論是怎么得到的

二、Bert 模型 Attention-Head 實驗

attention-head 是 bert 的基本組成模塊,本次實驗想要研究各個 head 都對模型作出了什么貢獻。通過 Mask 掉某個 head,對比模型前后表現的差異來研究這個 head 對模型有什么樣的作用(對訓練好的 bert 做 head-mask,不重新訓練,對比測試集的表現)。

bert-base 模型共 12 層每層有 12 個 head,下面實驗各個 head 提取的特征是否有明顯的模式(Bert 模型為在 query-title 數據上 finetune 好的中文模型)

2.1 Attention-Head 比較冗余

標準大小的 bert 一共有 12*12 共 144 個 head.我們嘗試對訓練好的 bert 模型,隨機 mask 掉一定比例的 head,再在測試數據集上測試分檔的準確率(五分類)。

下圖的柱狀圖的數值表示相比于 bseline(也就是不做任何 head-mask)模型 acc 的相對提升,如+1%表示比 baseline 模型的 acc 相對提高了 1%,從下面的圖可以看到,隨機 mask 掉低于 20%的 head,在測試數據集上模型的 acc 不會降低,甚至當 mask 掉 10%的 head 的時候模型表現比不做 head mask 的時候還提升了 1%。當 mask 掉超過一定數量的 head 后,模型表現持續下降,mask 掉越多表現越差。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

同時為了弄清楚底層和高層的 transformer 哪個對于 query-title 分類更加的重要,分別對底層(layer0 ~ layer5 )和高層(layer6~layer11)的 head 做 mask, 去掉的 head 比例控制在 0~50%(占總 head 數量)之間,50%表示去掉了底層或者是高層 100%的 head 下面的圖很清晰的說明了底層和高層的 attention-head 關系,橙色部分表示只 mask 掉高層(6 - 11 層)的 head,藍色部分表示只 mask 掉底層(0 - 5 層)的 head。

顯然高層的 attention-head 非常的依賴底層的 head,底層的 attention-head 負責提取輸入文本的各種特征,而高層的 attention 負責將這些特征結合起來。具體表現在當 mask 掉底層(0~5 層)的 80%的 head(圖中橫坐標為 40%)和 mask 掉底層的 100%的 head(圖中橫坐標為 50%)時,模型在測試數據集上表現下降劇烈(圖中藍色部分),說明了去掉大部分的底層 head 后只依賴高層的 head 是不行的,高層的 head 并沒有提取輸入的特征。相反去掉大部分高層的 head 后模型下降的并沒有那么劇烈(圖中橙色部分),說明了底層的 head 提取到了很多對于本任務有用的輸入特征,這部分特征通過殘差連接可以直接傳導到最后一層用做分類。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

這個結論后面也可以用于指導模型蒸餾,實驗結果表明底層的 transformer 比高層的 transformer 更加的重要,顯然我們在蒸餾模型時需要保留更多的底層的 head

那么對于模型來說是否有某些層的 head 特別能影響 query-title 分類呢?假設將 bert 中所有的 attention-head 看做一個 12*12 的方陣,下面是按行 mask 掉一整行 head 后模型在測試數據上的表現,柱狀圖上的數值表示相比 baseline 模型的相對提升。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

可以看到 mask 掉第 5 層~第 9 層的 head 都模型都有比較大的正面提升,特別是當去掉整個第 8 層的 attention-head 的時候測試數據準確率相對提升了 2.3%,從上圖可以得到兩個結論:

  • Bert 模型非常的健壯或者是冗余度很高
  • Bert 模型各層之間不是串行依賴的關系,信息并不是通過一層一層 transformer 層來傳遞的

bert 模型非常的健壯或者是冗余度很高,直接去掉一整層的 attention-head 并不會對模型的最終表現有太大的影響。 直接去掉整層的 attention-head 模型表現并沒有大幅度的下降,說明各層提取的特征信息并不是一層一層的串行傳遞到分類器的,而是通過殘差連接直接傳導到對應的層。

2.2 某些 head 負責判斷詞的邊界(使得字模型帶有分詞信息)

在我們的 query-title 分檔場景中,發現詞粒度的 bert 和字粒度的 bert 最終的表現是差不多的,而對于 rnn 模型來說字粒度的 rnn 很難達到詞粒度 rnn 的效果,我們希望研究一下為什么詞粒度和字粒度的 bert 表現差不多。

使用的 bert 可視化工具bert_viz觀察各層 attention-head 的 attention 權重分布,可以發現某些 head 帶有很明顯的分詞信息。推測這部分 attention-head 是專門用于提取分詞信息的 head。當當前的字可能是詞的結尾時,att 權重會偏向 sep,當這個字為詞的結尾可能性越大(常見的詞結尾),sep 的權重會越高。當當前字不是詞結尾時,att 會指向下一個字。這種模式非常明顯,直接拿這個 attention-head 的結果用于分詞準確率為 70%。

下面 gif 為我們模型中第 1 層第 3 個 head 的 attention 分布權重圖,可以發現 attention 權重很明顯帶有詞的邊界信息,當當前的字是結尾時 attention 權重最大的 token 為"SEP",若當前字不是結尾時 attention 權重最大的為下一個字。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

這種用于提取分詞信息的 head 有很多,且不同的 head 有不同的分詞粒度,如果將多個粒度的分詞綜合考慮(有一個 head 分詞正確就行),則直接用 attention-head 切詞的準確率在 96%,這也是為什么詞粒度 bert 和字粒度 bert 表現差不多的原因

這種用于提取分詞信息的 head 有很多,且不同的 head 有不同的分詞粒度,如果將多個粒度的分詞綜合考慮(有一個 head 分詞正確就行),則直接用 attention-head 切詞的準確率在 96%,這也是為什么詞粒度 bert 和字粒度 bert 表現差不多的原因。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

猜測字粒度 bert 代詞邊界信息是通過 bert 的預訓練任務 MLM 帶來的,語言模型的訓練使得 bert 對各個字之間的組合非常的敏感,從而能夠區分詞的邊界信息。

2.3 某些 head 負責編碼輸入的順序

我們知道 bert 的輸入為 token_emb+pos_emb+seg_type_emb 這三個部分相加而成,而文本輸入的順序完全是用 pos_emb 來隱式的表達。bert 中某些 head 實際上負責提取輸入中的位置信息。這種 attention-head 有明顯的上下對齊的模式,如下圖:

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

原輸入: query="京東小哥", title="京東小哥最近在干嘛",bert 模型判定為 4 檔

將 title 順序打亂: query="京東小哥", title="近東嘛最都在干哥小京",bert 模型判定為2 檔 將 title 順序打亂: query="京東小哥", title="近東嘛最都在干哥小京",mask 掉 7 個懷疑用于提取語序的 head,bert 模型判定為3 檔

下面的圖分別對比了不做 mask,隨機 mask 掉 7 個 head(重復 100 次取平均值),mask 掉 7 個特定的 head(懷疑帶有語序信息的 head) 從下面的圖看到,mask 掉 7 個特定的 head 后整體分檔提升為 3 檔,而隨機 mask 掉 7 個 head 結果仍然為 2 檔,且檔位概率分布和不 mask 的情況差別不大。

這個 case 說明了我們 mask 掉的 7 個特定的 head 應該是負責提取輸入的順序信息,也就是語序信息。將這部分 head mask 掉后,bert 表現比較難察覺到 title 中的亂序,從而提升了分檔。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

2.4 某些 head 負責 query 和 title 中相同部分的 term 匹配

query 和 title 中是否有相同的 term 是我們的分類任務中非常關鍵的特征,假如 query 中大部分 term 都能在 title 中找到,則 query 和 title 相關性一般比較高。如 query="京東小哥"就能完全在 title="京東小哥最近在干嘛"中找到,兩者的文本相關性也很高。我們發現部分 attention-head 負責提取這種 term 匹配特征,這種 head 的 attention 權重分布一般如下圖,可以看到上句和下句中相同 term 的權重很高(顏色越深表示權重越大)。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

其中在第 2~第 4 層有 5 個 head 匹配的模式特別明顯。我們發現雖然 bert 模型中 attention-head 很冗余,去掉一些 head 對模型不會有太大的影響,但是有少部分 head 對模型非常重要,下面展示這 5 個 head 對模型的影響,表格中的數值表示與 baseline 模型的 acc 相對提升值

--不做 HEAD-MASK隨機 MASK 掉 5 個 HEADMASK 掉 5 個指定的 HEADMASK 掉 0~5 層所有 HEADMASK 掉 0 ~ 5 層其他 HEAD, 只保留 5 個指定 HEAD測試數據準確率+0%+0%-52.4%-86.5%-18.1%

利用測試數據作為標準,分別測試隨機 mask 掉 5 個 head 和 mask 掉 5 個指定的 head(這些 head 在 attention 可視化上都有明顯的 query-title 匹配的模式)。從結果可以看到去掉這些負責 query-title 匹配的 head 后模型表現劇烈下降,只去掉這 5 個 head 就能讓模型表現下降 50%。甚至 mask 掉 0~5 層其他 head,只保留這 5 個 head 時模型仍維持 baseline 模型 82%的表現,說明了 query-title 的 term 匹配在我們的任務中是非常重要的。

這也許是為什么雙塔 bert 在我們的場景下表現會那么差的原因(Bert+LSTM 實驗中兩個模型結合最后的表現差于只使用 Bert, Bert 的輸入為雙塔輸入),因為 query 和 title 分別輸入,使得這些 head 沒有辦法提取 term 的匹配特征(相當于 mask 掉了這些 head),而這些匹配特征對于我們的分類任務是至關重要的

2.4.1 finetune 對于負責 term 匹配 attention-head 的影響

在 query-title 分檔任務中 query 和 title 中是否有相同的 term 是很重要的特征,那么在 finetune 過程中負責 query-title 中相同 term 匹配的 head 是否有比較明顯的增強呢?

下面以 case 為例說明: query="我在伊朗長大" title="假期電影《我在伊朗長大》"

下圖展示了 query-title 數據***finetune 前*****某個**負責 term 匹配的 head 的 attention 分配圖

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

沒有 finetune 前,可以看到某些 head 也會對上下句中重復的 term 分配比較大的 attention 值,這個特質可能是來自于訓練任務 NSP(上下句預測)。因為假如上句和下句有出現相同的 term,則它們是上下句的概率比較大,所以 bert 有一些 head 專門負責提取這種匹配的信息。

除了上下句相同的 term 有比較大的注意力,每個 term 對自身也有比較大的注意力權重(體現在圖中對角線上的值都比較大) 為了更直觀的看訓練前后哪部分的 attention 值有比較大的改變,分別展示訓練后 attention增強(微調前-微調后>0)和訓練后 attention減弱(微調前-微調后<0)的 attention 分配圖。可以觀察到比較明顯的幾個點:

  • query 和 title 中 term 匹配的 attention 值變大了 從下圖可以看到, query 和 title 中具有相同 term 時 attention 相比于訓練前是有比較大的增強。說明在下游任務(query-title 分檔)訓練中增強了這個 head 的相同 term 匹配信息的抽取能力。
谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起
  • term 和自身的 attention 變小了 模型將重點放在找 query 和 title 中是否有相同的 term,弱化了 term 對自身的注意力權重
谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起
  • 分隔符 sep 的 attention 值變小了。 有論文指出當某個 token 的 attention 指向 sep 時表示一種不分配的狀態(即此時沒有找到合適的 attention 分配方式),在經過 finetune 后 term 指向 sep 的權重變小了,表示經過 query-title 數據訓練后這個 head 的 attention 分配更加的明確了。

2.4.2 是否有某個 head 特別能影響模型

從上面的實驗可以看到,bert 模型有比較多冗余的 head。去掉一部分這些 head 并不太影響模型,但是有少部分 head 特別能影響模型如上面提到的負責提取上下句中 term 匹配信息的 head,只去掉 5 個這種 head 就能讓模型的表現下降 50%。那么是否有某個 head 特別能影響結果呢?

下面實驗每次只 mask 掉一個 head,看模型在測試數據中表現是否上升/下降。下圖中將 bert 的 144 個 head 看作 12X12 的矩陣,矩陣內每個元素表示去掉這個 head 后模型在測試數據上的表現。其中 0 表示去掉后對模型的影響不太大。元素內的值表示相對于 baseline 的表現提升,如+1%表示相比 baseline 的 acc 提高了 1%。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

可以看到對于 bert 的大部分 head,單獨去掉這個 head 對模型并不會造成太大的影響,而有少部分 head 確實特別能影響模型,比如負責上下句(query-title)中相同 term 匹配的 head。即使去掉一個這種 head 也會使得模型的表現下降。同時注意到高層(第 10 層)有一個 head 去掉后模型表現變化也很大,實驗發現這個 head 功能是負責抽取底層 head 輸出的特征,也就是 3-4 層中 head 抽取到輸入的 query-title 有哪些相同 term 特征后,這部分信息會傳遞到第 10 層進一步進行提取,最后影響分類。

2.4.3 高層 head 是如何提取底層 head 特征-一個典型 case

上圖中,在第 10 層有一個 head 去掉后特別能影響模型,觀察其 attention 的分布,cls 的 attention 都集中在 query 和 title 中相同的 term 上,似乎是在對底層 term 匹配 head 抽取到的特征進一步的提取,將這種匹配特征保存到 cls 中(cls 最后一層會用于分類)。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

在沒有做任何 head-mask 時, 可以看到 cls 的 attention 主要分配給和 query 和 title 中的共同 term "紫熨斗",而 mask 掉 5 個 2~4 層的 head(具有 term 匹配功能)時, 第 10 層的 cls 注意力分配明顯被改變,分散到更多的 term 中。

谷歌最強NLP模型BERT,為何炫酷又強大?騰訊程序員給你從頭講起

這個 case 展示了高層 attention-head 是如何依賴底層的 head 的特征,進一步提取底層的特征并最后作為重要特征用于 query-title 分類。

結語

本文主要探討了在 query-title 分類場景下,bert 模型的可解釋性。主要從 attention-head 角度入手,發現 attention 一方面非常的冗余,去掉一部分 head 其實不會對模型造成多大的影響。另外一方面有一些 head 卻非常的能影響模型,即使去掉一個都能讓模型表現變差不少。同時發現不同的 head 實際上有特定的功能,比如底層的 head 負責對輸入進行特征提取,如分詞、提取輸入的語序關系、提取 query 和 title(也就是上下句)中相同的 term 信息等。這部分底層的 head 提取到的特征會通過殘差連接送到高層的 head 中,高層 head 會對這部分特征信息進行進一步融合,最終作為分類特征輸入到分類器中。

本文重點討論了哪些 head 是對模型有正面作用,也就是去掉這些 head 后模型表現變差了。但是如果知道了哪些 head 為什么對模型有負面作用,也就是為什么去掉某些 head 模型效果會更好,實際上對于我們有更多的指導作用。這部分信息能夠幫助我們在模型加速,提升模型表現上少走彎路。

參考文獻

[1] Clark K, Khandelwal U, Levy O, et al. What Does BERT Look At? An Analysis of BERT's Attention[J]. arXiv preprint arXiv:1906.04341, 2019.

[2] Vig J. A multiscale visualization of attention in the transformer model[J]. arXiv preprint arXiv:1906.05714, 2019.

責任編輯:張燕妮 來源: 騰訊技術工程
相關推薦

2023-12-07 11:12:54

大型語言模型Gemini人工智能

2020-03-17 09:42:00

谷歌開源機器學習

2016-11-24 15:32:35

云計算

2019-08-01 09:17:06

工具插件開發

2024-07-12 09:01:37

404頁面代碼

2020-09-22 15:17:59

谷歌Android技術

2013-01-17 09:54:12

程序員編程

2022-07-21 07:05:13

粒子動畫CSS

2015-03-13 09:45:27

2013-08-05 09:55:47

程序員

2012-12-21 15:14:35

Java

2023-04-04 13:56:17

2015-07-27 09:26:41

程序員

2018-09-03 09:40:38

華為程序員危機

2020-09-04 15:04:17

函數式編程程序員函數

2015-04-17 09:34:42

程序員

2010-03-17 09:56:37

游戲程序員

2018-09-06 13:06:46

程序員焦慮谷歌

2019-11-28 10:53:19

程序員技能開發者

2022-12-07 10:21:19

谷歌搜索技巧
點贊
收藏

51CTO技術棧公眾號

国产精品av电影| 亚洲福利在线播放| 玖玖精品在线视频| 欧美一区二区黄片| 爽爽淫人综合网网站| 日韩视频免费中文字幕| 香蕉视频污视频| 精品欧美一区二区三区在线观看| 亚洲黄色免费电影| 久久国产精品一区二区三区四区| 中文字幕在线网站| 99视频一区| 久久精品夜夜夜夜夜久久| 欧美成人三级伦在线观看| 欧美爱爱视频| 欧美日韩美女在线| 麻豆视频传媒入口| 91大神xh98hx在线播放| 粉嫩13p一区二区三区| 国产成人在线视频| 国产精品一区二区6| 我不卡神马影院| 在线观看精品自拍私拍| 日韩aaaaa| 亚洲日本va| 欧美精品日韩精品| 成人黄色一区二区| 国产ktv在线视频| 亚洲欧美视频在线观看| 日韩区国产区| 日韩电影免费| 国产美女av一区二区三区| 国产精品第3页| 欧美福利视频一区二区| 欧美久久影院| 尤物tv国产一区| 一本色道综合久久欧美日韩精品| 久久久精品区| 欧美日韩高清在线播放| 女人另类性混交zo| 中老年在线免费视频| 亚洲线精品一区二区三区| 午夜在线视频免费观看| 成人在线观看一区| 久久久99精品免费观看| 国产一区二区三区奇米久涩| 午夜老司机福利| 国产在线视视频有精品| 国产在线观看一区二区三区| 久久久精品毛片| 久久精品人人做人人爽电影蜜月| 97精品在线视频| 日韩av黄色片| 国产精品久久777777毛茸茸| 欧美激情一级二级| 精品亚洲永久免费| 韩国av一区| 欧美激情精品久久久久久免费印度| 99自拍视频在线| 一区二区三区四区电影| 久久精品国产亚洲精品2020| 成人区精品一区二区| 2021狠狠干| 男男激情在线| 欧美韩国日本综合| 一区二区三区av在线| 久久日韩视频| 一区二区三区四区蜜桃| 欧洲精品在线播放| 日韩在线伦理| 欧美日韩一区二区三区在线看| xxww在线观看| 国模大尺度视频一区二区| 91精品国产综合久久久蜜臀粉嫩| 国产男女无遮挡猛进猛出| 一区二区在线免费播放| 日韩电影中文字幕| 国产三级短视频| 亚洲综合色网| 2019中文字幕在线| 中文天堂在线视频| 国产麻豆9l精品三级站| 国产午夜精品一区| 在线免费av网站| 一区二区三区.www| 国产l精品国产亚洲区久久| 日韩经典一区| 日韩免费视频一区| 3d动漫精品啪啪一区二区下载 | 久久精彩视频| 亚洲免费视频一区二区三区| 亚洲精品亚洲人成人网| jizzjizz国产精品喷水| 国产精品99| 精品日产卡一卡二卡麻豆| 亚洲国产综合视频| 日韩精品电影| 97高清免费视频| 夜夜嗨av禁果av粉嫩avhd| 成人免费黄色大片| 亚洲精品在线免费| √8天堂资源地址中文在线| 欧美日韩在线一区二区| 精品国产免费久久久久久婷婷| 亚洲春色h网| 欧美成人免费小视频| 五月天婷婷导航| 国产精品66部| 亚洲春色在线视频| 日韩激情电影免费看| 在线电影院国产精品| 岛国精品资源网站| 午夜精品网站| 国产欧美精品va在线观看| 手机看片一区二区三区| 亚洲天堂av老司机| www.色就是色| 久久久久久毛片免费看 | 久久久久无码国产精品不卡| 日韩av电影天堂| 久久国产精品久久| 成全电影大全在线观看| 7777精品伊人久久久大香线蕉| 国产三级av在线播放| 一区二区三区国产在线| a级国产乱理论片在线观看99| 成人三级黄色免费网站| 岛国av在线不卡| 超碰在线超碰在线| 国产精品99一区二区三| 国产精品va在线播放| 日本一卡二卡四卡精品| 亚洲成人av福利| 蜜桃色一区二区三区| 国产精品不卡| 国产在线精品成人一区二区三区| 精品999视频| 色999日韩国产欧美一区二区| 欧美日韩人妻精品一区在线| 欧美三区不卡| 97在线中文字幕| 宅男在线观看免费高清网站| 7777精品久久久大香线蕉| 91导航在线观看| 秋霞国产午夜精品免费视频| 欧美一区亚洲二区| 日本中文字幕一区二区| 亚洲欧美日韩一区二区三区在线| 国产成人愉拍精品久久 | 日韩欧美黄色影院| 天堂网avav| 国产91精品精华液一区二区三区| 51xx午夜影福利| 国产亚洲亚洲国产一二区| 久久精品美女视频网站| 99久久免费国产精精品| 亚洲精品高清视频在线观看| 中文字幕在线观看视频www| 欧美久久99| 国产一区二区三区色淫影院| 国产粉嫩在线观看| 亚洲人成网站在线播| 波多野结衣网站| 国产精品美女久久久久久久久久久 | 一本久道久久综合狠狠爱| 蜜桃导航-精品导航| 日本欧美日韩| www.日韩免费| 亚洲毛片在线播放| 日韩欧美中文在线| аⅴ天堂中文在线网| 精油按摩中文字幕久久| 9191国产视频| 日本成人a网站| 国产欧美精品在线| 中文字幕有码在线观看| 亚洲福利视频网站| 免费在线不卡av| 亚洲免费在线播放| 日本一级片在线播放| 日韩av电影天堂| 欧美一级爱爱视频| 欧美极品在线观看| 亚洲一区亚洲二区| 波多野结衣久久精品| 中文字幕日韩专区| 黄色三级网站在线观看| 91福利小视频| 久久久久久久中文字幕| 国产欧美精品一区二区色综合朱莉| 免费在线观看污网站| 99精品国产一区二区青青牛奶| 色综合电影网| av自拍一区| 国产日韩视频在线观看| 999福利在线视频| 精品国模在线视频| 美女欧美视频在线观看免费 | 精品少妇一区二区三区 | 美腿丝袜亚洲一区| 亚洲熟妇无码另类久久久| 第一社区sis001原创亚洲| 国产精品免费在线| 国内不卡的一区二区三区中文字幕| 51视频国产精品一区二区| 老司机在线视频二区| 日韩精品视频在线免费观看| 99riav国产| 欧美性受xxxx黑人xyx| 国产成人啪精品午夜在线观看| 国产精品毛片无遮挡高清| 人妻在线日韩免费视频| 国产精品一二一区| 亚洲人视频在线| 日韩精品福利网| 国产乱子夫妻xx黑人xyx真爽| 欧美精品国产| 日韩精品福利片午夜免费观看| 欧美亚洲激情| 欧美一区免费视频| 五月国产精品| 久久久精品动漫| 国产精品极品在线观看| 91手机在线播放| 狂野欧美xxxx韩国少妇| 国产女同一区二区| 欧美日韩免费电影| 国产精品扒开腿做爽爽爽男男| 在线观看v片| 亚洲2020天天堂在线观看| 色呦呦在线播放| 欧美激情一级欧美精品| 2024最新电影在线免费观看| 亚洲天堂网在线观看| 免费观看的毛片| 亚洲第一精品夜夜躁人人躁| www.欧美国产| 欧美tk—视频vk| 手机在线精品视频| 亚洲国产另类 国产精品国产免费| 亚洲av无码片一区二区三区| 91成人短视频在线观看| 欧美午夜激情在线| 欧美激情亚洲综合| 欧美视频在线免费| 中文字幕在线播| 91黄视频在线观看| 国产精品51麻豆cm传媒| 欧美性感一区二区三区| 一级片在线免费播放| 欧美在线播放高清精品| 亚洲视频一区二区三区四区| 欧美视频一区二| 一区二区精品视频在线观看| 欧美老女人在线| 国产富婆一级全黄大片| 欧美tickling网站挠脚心| 日本精品久久久久| 精品亚洲一区二区三区| 国产在线日本| 日韩中文字幕免费| 影院在线观看全集免费观看| 久久久久日韩精品久久久男男| av美女在线观看| 情事1991在线| 日本精品久久| av激情久久| 免费电影一区二区三区| 日韩在线第一区| 66视频精品| 一本大道熟女人妻中文字幕在线| 视频在线观看91| 欧美成人手机在线视频| 顶级嫩模精品视频在线看| 极品粉嫩小仙女高潮喷水久久 | 黑人精品一区| 国产日韩欧美中文在线播放| 午夜久久av| 久久久综合香蕉尹人综合网| 日韩精品水蜜桃| 日韩精品一区在线视频| 日韩精品一二三| a级大片免费看| 久久久亚洲国产美女国产盗摄| 最新日韩免费视频| 亚洲第一成人在线| 亚洲视频中文字幕在线观看| 精品精品国产高清一毛片一天堂| 日本天堂在线| 免费av一区二区| 外国成人直播| 粉嫩av一区二区三区免费观看 | bt欧美亚洲午夜电影天堂| 国产无遮挡在线观看| 亚洲综合在线免费观看| 91丨九色丨海角社区| 欧美变态tickling挠脚心| 国产三级在线| 韩剧1988在线观看免费完整版| 免费成人黄色网| 女人一区二区三区| 欧美激情综合| 国产3p在线播放| 久久久综合视频| 久久久久亚洲av成人片| 欧美日韩精品三区| 九色网友自拍视频手机在线| 欧美黄色片在线观看| 欧美成人黄色| 欧美日韩中文国产一区发布| 韩国在线视频一区| 久久久久久久久久毛片| 久久久国产一区二区三区四区小说 | 奇门遁甲1982国语版免费观看高清| 99久久久国产| 亚洲精品日韩在线观看| 亚洲综合国产| 精品人妻伦一二三区久| 亚洲乱码国产乱码精品精98午夜| 久久久蜜桃一区二区| 亚洲福利小视频| 丁香花在线观看完整版电影| 成人激情黄色网| 日韩av大片| 中文字幕在线观看第三页| 91网站黄www| 日韩网红少妇无码视频香港| 精品久久久影院| 欧美hdxxxx| 成人91视频| 好吊日精品视频| 国产原创剧情av| 亚洲第一成人在线| 蜜桃av鲁一鲁一鲁一鲁俄罗斯的| 欧美刺激性大交免费视频| 亚洲精品三区| 2021狠狠干| 国产成人精品午夜视频免费| 国产av无码专区亚洲av毛网站| 欧美理论电影在线| 69xxx在线| 高清不卡日本v二区在线| 欧美激情视频一区二区三区免费| 国产九九九视频| 一区二区三区欧美日韩| wwwav在线播放| 欧美丰满少妇xxxxx| 一区二区三区四区高清视频| 日本福利视频在线观看| 国产成人av一区二区| 精品99久久久久成人网站免费| 欧美白人最猛性xxxxx69交| 久操av在线| 久久精品第九区免费观看| 亚洲一区二区免费看| 国产精品三级在线观看无码| 色综合久久久久久久久久久| 国产视频第一页在线观看| 国产精品激情av电影在线观看 | 亚洲私人黄色宅男| 91丨porny丨在线中文| 久久久精品视频成人| aaa国产精品视频| 成人一对一视频| 日本一区二区三区高清不卡 | 中文字幕第21页| 亚洲精品国产setv| 午夜激情福利在线| 中文字幕在线视频一区| 国产偷人妻精品一区二区在线| 色综合天天综合网国产成人网 | 欧美日韩在线精品| 日本成人中文字幕在线视频| 无码人妻精品中文字幕| 日韩欧美一级在线播放| 国产精品高颜值在线观看| 欧洲精品码一区二区三区免费看| 精品一区二区影视| 国语对白一区二区| 中文字幕日韩av| 91精品国产自产在线丝袜啪| 男人天堂1024| 国产精品久久久久久久裸模| www.久久色| 国产成人久久精品| 欧美va天堂在线| 老牛影视av老牛影视av| 91精品婷婷国产综合久久性色| av日韩中文| 一区二区三视频| 91视频www| 精品黑人一区二区三区在线观看 | 女人天堂av手机在线| 国产精品区一区二区三| 人人妻人人玩人人澡人人爽| 国产精品主播视频| 在线视频亚洲| 男女性高潮免费网站| 国产亚洲福利一区| 国产成人福利av|