精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

GNMT-谷歌的神經網絡翻譯系統

移動開發 深度學習
一般來說,NMT【神經網絡翻譯系統】通常會含用兩個RNN【遞歸神經網絡】,一個用來接受輸入文本,另一個用來產生目標語句,與此同時,還會引入當下流行的注意力機制【attention mechanism】使得系統處理長句子時更準確高效。

一、前言

2016年9月份,谷歌發布了基于神經網絡的翻譯系統(GNMT),并宣稱GNMT在多個主要語言對的翻譯中將翻譯誤差降低了55%-85%以上,并將此翻譯系統的技術細節在論文(

)在展示,在閱讀之后收益匪淺。

二、概要

一般來說,NMT【神經網絡翻譯系統】通常會含用兩個RNN【遞歸神經網絡】,一個用來接受輸入文本,另一個用來產生目標語句,與此同時,還會引入當下流行的注意力機制【attention mechanism】使得系統處理長句子時更準確高效。但谷歌認為,通常這樣的神經網絡系統有三個弱點:

  • 訓練速度很慢并且需要巨大的計算資源,由于數量眾多的參數,其翻譯速度也遠低于傳統的基于短語的翻譯系統【PBMT】。
  • 對罕見詞的處理很無力,而直接復制原詞在很多情況下肯定不是一個好的解決方法。
  • 在處理長句子的時候會有漏翻的現象。

而且GNMT致力于解決以上的三個問題,在GNMT中,RNN使用的是8層(實際上Encoder是9層,輸入層是雙向LSTM。)含有殘差連接的神經網絡,殘差連接可以幫助某些信息,比如梯度、位置信息等的傳遞。同時,attention層與decoder的底層以及encoder的頂層相連接,如圖:

GNMT結構圖

  • 為了解決翻譯速度問題,谷歌在翻譯過程中使用了低精度的算法(將模型中的部分參數限制為8bit)以及使用了TPU。
  • 為了更好的處理低詞頻的詞,谷歌在輸入和輸出中使用了sub-word units也叫wordpieces,(比如把’higher‘拆分成‘high’和‘er’,分別進行處理) 
    *在beamsearch中,谷歌加入了長度規范化和獎勵懲罰(coverage penalty)使對翻譯過程中產生的長度不同的句子處理更高效并且減少模型的漏翻。

在進行了這么多改進之后,谷歌宣稱,在英-法,英-中,英-西等多個語對中,錯誤率跟之前的PBMT系統相比降低了60%,并且接近人類的平均翻譯水平。

接下來就詳細的看一下神奇的GNMT模型的細節。

三、模型結構

如上圖所示,GNMT和通常的模型一樣,擁有3個組成部分 -- 一個encoder,一個decoder,和一個attention network 。encoder將輸入語句變成一系列的向量,每個向量代表原語句的一個詞,decoder會使用這些向量以及其自身已經生成的詞,生成下一個詞。encoder和decoder通過attention network連接,這使得decoder可以在產生目標詞時關注原語句的不同部分。

此外,如我們所想,要使翻譯系統有一個好的準確率,encoder和decoder的RNN網絡都要足夠深,以獲取原句子和目標語句中不容易被注意的細節,在谷歌的實驗中,沒增加一層,會使PPL降低約10%。

關于模型中的attention機制,采用了如下的公式來計算:

attention的公式

其實在此我有一個疑問,這里***的a i 是一個向量呢?還是一個標量(一個數值)。從式中看似乎是一個標量,但我在之前理解的是attention是一個跟輸入語句單詞數量等長的向量。

3.1殘差連接

如上面提到的,多層堆疊的LSTM網絡通常會比層數少的網絡有更好的性能,然而,簡單的錯層堆疊會造成訓練的緩慢以及容易受到剃度爆炸或梯度消失的影響,在實驗中,簡單堆疊在4層工作良好,6層簡單堆疊性能還好的網絡很少見,8層的就更罕見了,為了解決這個問題,在模型中引入了殘差連接,如圖,

殘差連接示意圖

將第i層的輸入與第i層LSTM的隱狀態一起,作為第i+1層LSTM的輸入,

沒有引入殘差連接的LSTM示意圖

引入殘差連接的LSTM示意圖

3.2Encoder的***層雙向LSTM

一句話的譯文所需要的關鍵詞可能在出現在原文的任何位置,而且原文中的信息可能是從右往左的,也可能分散并且分離在原文的不同位置,因為為了獲得原文更多更全面的信息,雙向RNN可能是個很好的選擇,在本文的模型結構中,只在Encoder的***層使用了雙向RNN,其余的層仍然是單向RNN。

Bi-directions RNN示意圖

可以看到,粉色的LSTM從左往右的處理句子,綠色的LSTM從右往左,二者的輸出先是連接,然后再傳給下一層的LSTM。

3.3模型的平行訓練

這一部分主要是介紹模型在訓練過程中一些加速的方法。

谷歌同時采用了數據平行和模型平行兩種方式以加速訓練,數據平行很直接,就是把模型復制并部署n份,每份的參數是共享的,每份訓練時都以Batch的形式訓練,即同時訓練batch-size句話。在谷歌實驗中,n通常是10,而batch-size通常是128,然后用Adam和SGD的方法來更新參數。

除了數據平行,實驗中還采用了模型平行,即,將每一層網絡部署在一個GPU上,如最上方的圖所示,這樣在Encoder的***層雙向RNN計算完之后,下一時間步不需要等本時間步完全運行完就可以開始,并行計算加速了訓練速度。

而之所以不在每一層都是用雙向RNN是因為,如果這樣會大幅度降低訓練速度,因為其只能使用兩個GPU,一個作前向信息處理,一個作后向的信息處理,降低平行計算的效率。

在attention的部分,將encoder的輸出層與decoder的底層對齊(我的理解應該是輸出的tensor緯度一致)來***化平行計算的效率。(具體是什么原理我還沒理解太明白)。

四、數據預處理

神經網絡翻譯系統在運行過程中通常有一個字數有限的字典,而可能遇到的詞是無數的,這就可能造成OOV(out-of-vocabulary)問題,由于這些未知詞通常是日期,人名,地名等,所以一個簡單的方法就是直接復制這些詞,顯然在處理非人名等詞時著不是***的解決方案,在谷歌的模型中,采用更好的wordpiece model,也叫sub-word units,比如在“Turing’s major is NLP .”一句經過WPM模型處理之后應該是"Turing ‘s major is NLP ." 另外為了直接復制人名等詞,使source language和target language共享wordpiece model,WPM在單詞的靈活性和準確性上取得了一個很好的均衡,也在翻譯有更好的準確率(BLEU)和更快的翻譯速度。

五、訓練標準

通常來說,在N對語句對中,訓練的目標是使下式***化:

log probabilities of the groud-truth outputs given the corresponding inputs

但這里面有一個問題,翻譯中的BLEU值中不能反映對單句翻譯質量好壞的獎懲,進一步,因為模型在訓練過程中從來沒有見過錯誤的譯句,當模型有一個較高的BLEU值時,那些錯誤的句子仍然會獲得較高的概率,所以上式不能明確的對翻譯中的錯誤句子進行懲罰。(對原論文中此處不是完全理解,存疑。)

因此需要對模型有進一步的refinement,但BLEU值是針對兩個語料庫進行的評測標準,在對單句的評測上效果并不理想,所以谷歌提出了GLEU值,GLEU值的大體意思就是分別計算目標語句和譯句的n-grams,(n = 1,2,3,4)數量,然后計算兩個集合的交集的大小與原集大小的比值,取較小值。

我用python實現了一下GLEU值的計算,代碼如下:

  1. def get_ngrams(s,maxn): 
  2.     ngrams = {} 
  3.     size = 0 
  4.     for n in range(1,maxn+1): 
  5.         for i in range(0,len(s)): 
  6.             for j in range(i+1,min(i+n+1,len(s)+1)): 
  7.                 ngram = '' 
  8.                 for word in s[i:j]: 
  9.                     ngram += word 
  10.                     ngram += ' ' 
  11.                 ngram = ngram.strip() 
  12.                 if ngram not in ngrams: 
  13.                     ngrams[ngram] = 1 
  14.                     size += 1 
  15.     return size,ngrams 
  16. def get_gleu(orig,pred,n=4): 
  17.     orig_ = orig.split(' '
  18.     pred_ = pred.split(' '
  19.     n_orig,ngrams_orig = get_ngrams(orig_,n) 
  20.     n_pred,ngrams_pred = get_ngrams(pred_,n) 
  21.     count_match = 0 
  22.     for v in ngrams_orig: 
  23.         if v in ngrams_pred: 
  24.             count_match += 1 
  25.     return min(count_match/n_orig,count_match/n_pred) 

所以,refinement之后模型的評測標準變成了下式:

refinement maximum-likelihood

r(Y, Y (i))就是GLEU值的計算部分。GLEU克服了BLEU在單句評測上的缺點,在本實驗中,可以和BLEU值可以很好的共同工作。

為了進一步使訓練穩定,谷歌對訓練標準作了一個線性的結合,也就是下式:

Mixed maximum-likelihood

α在訓練中去0.017.

在實際的訓練過程中,先使用O ml 的標準訓練使模型收斂,然后使用O mixd 的標準進一步提升模型的表現。

六、可量化的模型和翻譯過程中的量化

(坦白的說,我并不知道原文中 Quantizable Model and Quantized Inference 應該怎么翻譯更好。)

這一部分主要講的是,由于模型較深且計算量較大,在翻譯過程會產生一些問題,所以谷歌在不影響模型收斂和翻譯效果的前提下,采取了一系列的優化措施。

帶有殘差連接的LSTM網絡,有兩個值是會不斷傳遞計算的,在時間方向上傳遞的c i t 和在深度方向上傳遞的x i t ,在實驗中過程我們發現這些值都是非常小的,為了減少錯誤的累積,所以在翻譯的過程中,明確的這些值限制在[-δ,δ]之間,因此原LSTM的公式調整如下:

6.1 modified equation

6.2 完整的LSTM計算邏輯

在翻譯的過程中,谷歌將6.1和6.2式中所有浮點數運算替代為8位或16位定點整數運算,其中的權重W像下式一樣改用8位整數表示:

權重W的調整

所有的c i t 和x i t 限制在[-δ,δ]之間且改用16位整數表示。

在6.2中的矩陣乘法(比如W 1 x t )改用8位定點整數乘法,而其他的所有運算,比如sigmoid,tanh,點乘,加法等,改用16位整數運算。

假設decoder RNN的輸出是y t ,那在softmax層,概率向量p t 改為這樣計算:

修改后的概率向量計算公式

將 logit v t ' 限制在[-γ,γ]之間且權重W s 和6.2式中的權重W同樣使用8位整數表示并在運算過程中使用8位矩陣乘法。

但在softmax層和attention層不采取量化措施。

值得一提的是,除了將c i t 和x i t 限制在[-δ,δ]和將logit v t ' 限制在[-γ,γ],在 訓練過程 中一直使用的是全精度的浮點數。其中γ取25.0,δ在訓練剛開始取8.0然后逐漸變為1.0 。( 在翻譯時,δ取1.0 。 )

Log perplexity vs. steps

紅線代表采用了量化措施的訓練過程,藍線代表普通的訓練,可以看到將一些值限制在一定范圍內作為額外的規劃化措施可以改善模型的質量。

七、Decoder

在翻譯的過程中,使用了常規的beam search算法,但引入了兩個重要的優化方案,即GNMT中的α和β值。

  • α值的作用是對譯句進行長度規范化,因為選取一個句子的可能性是由劇中每個詞的概率取log后相加得到的,這些個對數概率都是負值,因此某種程度上,長句會取得更小的對數概率,這顯然是不合理的,因此需要對譯句進行長度規劃化。
  • β值的作用是促使模型更好的翻譯全句,不漏翻。

關于α和β值適用的公式

其中s(Y,X)代表譯文最終獲得的分數,p i j 表示在翻譯第j個詞時其對應第i個詞的attention值。

谷歌在文中還提到兩種優化方法:

Firstly, at each step, we only consider tokens that have local scores that are

not more than beamsize below the best token for this step. Secondly, after a normalized best score has

been found according to equation 14, we prune all hypotheses that are more than beamsize below the best

額,其實我沒看懂這跟常規的beam search算法有什么不同,望大神指點。。。

在En-Fr語料庫上,不同α和β值對BLEU值的影響

當α和β值取0時相當于不做長度規劃化和覆蓋范圍懲罰,算法退回到最原始的beam search算法,值得一提的是,得到上述BLEU的模型并沒有進行只使用了ML進行訓練,沒有使用RL優化。因為RL refinement已經促使模型不漏翻,不過翻。

在En-Fr語料庫上先用ML優化在用RL優化的到的BLEU值與上圖的比較

在谷歌實驗中,α=0.2和β=0.2,但在我們的實驗中,在中英翻譯中,還是α=0.6~1和β=0.2~0.4會取得更好的效果

實驗過程以及實驗結果

實驗結果對比

模型部分基本介紹完了,剩下的第八部分關于實驗以及實驗結果先貼張圖,會繼續不定時補充,下一篇文章應該會介紹一下Facebook發布并開源的宣稱比GNMT更好更快的FairSeq模型...

論文中提到但未使用的方法

另有一種方法處理OOV問題是將罕見詞標記出來,比如,假設 Miki 這個詞沒有出現在詞典中,經過標記后,變成<B> M <M> i <M> k <E> i ,這樣在翻譯過程中,將罕見詞替換為特殊符號。

責任編輯:林師授 來源: 簡書
相關推薦

2017-08-31 12:07:52

微軟

2018-07-03 16:10:04

神經網絡生物神經網絡人工神經網絡

2025-02-25 14:13:31

2020-08-06 10:11:13

神經網絡機器學習算法

2017-04-17 10:25:29

神經網絡可視化ActiVis

2023-06-18 23:00:39

神經網絡損失函數隨機變量

2017-09-10 07:07:32

神經網絡數據集可視化

2020-05-09 10:03:00

Google 翻譯技術

2019-05-07 19:12:28

機器學習神經網絡Python

2017-05-04 18:30:34

大數據卷積神經網絡

2022-04-07 09:01:52

神經網絡人工智能

2020-03-02 11:04:19

人工智能機器學習技術

2017-11-30 18:05:18

2021-01-18 14:38:53

神經網絡人工智能神經元

2023-11-14 16:29:14

深度學習

2017-03-21 08:52:20

神經網絡聲譽

2021-08-02 14:15:18

谷歌DeepMind神經網絡

2018-03-22 13:34:59

TensorFlow神經網絡

2022-09-26 00:00:00

神經網絡激活函數sigmoid

2025-03-05 08:00:00

點贊
收藏

51CTO技術棧公眾號

久久久久亚洲精品| 这里只有精品视频在线观看| 日韩av高清| 91av国产精品| 激情综合自拍| 亚洲香蕉伊综合在人在线视看| 超碰成人在线播放| 黄网av在线| 国产片一区二区| 5566av亚洲| 无码人妻一区二区三区免费| 欧美福利一区| 国产亚洲精品美女| 国产不卡的av| 日韩美女在线看免费观看| 亚洲欧美激情一区二区| 蜜桃av久久久亚洲精品| 国产乱叫456在线| 久久精品动漫| 久久全国免费视频| 在线视频这里只有精品| 亚洲三级性片| 亚洲第一精品夜夜躁人人爽| 17c国产在线| 欧美性xxx| 婷婷六月综合网| 青青草原网站在线观看| 大地资源中文在线观看免费版| 豆国产96在线|亚洲| 国产精品永久免费| 草莓视频18免费观看| 亚洲高清免费| 欧美国产日本在线| 91香蕉一区二区三区在线观看| 欧美男男gaytwinkfreevideos| 欧美tickling挠脚心丨vk| 孩娇小videos精品| 欧美freesex| 午夜激情久久久| 日本免费a视频| caopeng在线| 亚洲色图欧洲色图| 伊人狠狠色丁香综合尤物| 黑人与亚洲人色ⅹvideos| 99re这里只有精品视频首页| 国产精品免费在线播放| 亚洲免费国产视频| 国产一区二区三区久久久 | 日本少妇做爰全过程毛片| 午夜性色一区二区三区免费视频| 最近2019年中文视频免费在线观看| a级大片在线观看| 伊人成综合网yiren22| 日韩大陆欧美高清视频区| 午夜剧场免费看| 精品亚洲精品| 亚洲精品一区av在线播放| 中文字幕xxx| 神马香蕉久久| 国产一区二区黑人欧美xxxx| 日本综合在线观看| 久久视频在线| 萌白酱国产一区二区| 欧美黄色免费看| 精品动漫3d一区二区三区免费| 久久久噜噜噜久噜久久| 欧美三级午夜理伦| 天堂一区二区在线| 国产日韩欧美电影在线观看| 国产成人精品白浆久久69| 国产精品一区二区91| 电影午夜精品一区二区三区| 香蕉av一区二区三区| 久久久久久毛片| 亚洲欧洲精品在线| 超碰免费在线播放| 五月天一区二区三区| 欧美成人黑人猛交| 男女啪啪999亚洲精品| 9191成人精品久久| 无码精品一区二区三区在线播放 | 国产乱人伦偷精品视频免下载| 亚洲最大成人在线| 亚洲人妻一区二区| 中文字幕 久热精品 视频在线| 97av中文字幕| 亚洲最大网站| 欧美一区二区三区免费在线看 | 国产日韩欧美视频在线观看| 丁香另类激情小说| 图片区小说区区亚洲五月| 黄色片网站在线观看| 亚洲成av人片在www色猫咪| 大肉大捧一进一出好爽动态图| crdy在线观看欧美| 精品中文视频在线| 在线看的片片片免费| 中文精品在线| 成人a免费视频| 亚洲aⅴ乱码精品成人区| 国产精品麻豆视频| 日韩国产欧美亚洲| 国产电影一区| 亚洲欧美综合v| 欧美日韩三级在线观看 | 午夜视频在线网站| 美女呻吟一区| 蜜臀久久99精品久久久久久宅男 | 91精品国产91久久久久久青草| 图片区日韩欧美亚洲| 日本高清免费在线视频| 禁断一区二区三区在线| 午夜精品理论片| 国产男男gay体育生白袜| 久久久久亚洲蜜桃| 免费不卡av在线| 国产一区二区久久久久| 亚洲女人天堂色在线7777| 曰本女人与公拘交酡| 热久久国产精品| 免费观看成人高| 成人av影院在线观看| 制服.丝袜.亚洲.中文.综合| 国产精品无码无卡无需播放器| 亚洲一区成人| 精品国产一区二区三| av片哪里在线观看| 欧美日韩国产综合一区二区| 亚洲精品乱码久久久久久久久久久久| 伊人久久大香线蕉av超碰演员| 91免费欧美精品| 毛片av在线| 欧美日韩国产综合一区二区| 国产精品理论在线| 免费在线欧美黄色| 精品国产一区二区三区麻豆小说| 男女免费观看在线爽爽爽视频| 69堂精品视频| avove在线播放| 国产精品影视在线| 麻豆视频传媒入口| 国产欧美88| 九九热最新视频//这里只有精品| 国产精品久久久久精| 中文字幕一区二区三| 国产精品区在线| 日韩精品影视| 成人久久久久久久| 老司机福利在线视频| 欧美日韩精品是欧美日韩精品| 亚洲欧洲综合网| 国产在线不卡一区| 欧洲美女和动交zoz0z| 日韩综合一区二区三区| 色综合天天狠天天透天天伊人 | 高清在线观看日韩| 国产精品国产三级国产专区51| 亚洲国产一区二区三区网站| 欧美激情aaaa| 手机看片一区二区| 欧美性xxxx极品hd欧美风情| 午夜在线观看一区| 麻豆传媒一区二区三区| 中文字幕av导航| www.久久东京| 日韩美女视频免费在线观看| 成人高清免费在线播放| 8x8x8国产精品| www.天天色| 久久精品欧美日韩| 加勒比av中文字幕| 国产一区美女| 欧美一区二区影视| 日韩黄色三级| 午夜精品一区二区三区视频免费看| 日韩电影网址| 欧美精品vⅰdeose4hd| 欧美一区二区三区爽爽爽| 99视频精品免费视频| 色七七在线观看| 欧美视频二区| 日本一区二区三不卡| 精品久久国产一区| 欧美亚洲激情在线| 日本福利专区在线观看| 精品国产乱码久久久久久浪潮| 日本黄色一级视频| 亚洲日本一区二区| 一级特级黄色片| 美女www一区二区| www.日本在线视频| av一区二区在线播放| 97se视频在线观看| 日韩新的三级电影| 欧美精品在线极品| 韩国免费在线视频| 日韩三级中文字幕| 特级西西444www高清大视频| 亚洲一区在线播放| 超薄肉色丝袜一二三| 成人深夜视频在线观看| 男女污污的视频| 在线欧美亚洲| 婷婷视频在线播放| 亚欧洲精品视频在线观看| 91在线视频一区| 日韩一级二级| 97色在线观看免费视频| 国产黄色在线网站| 一区二区三区四区在线观看视频| 亚洲精品久久久狠狠狠爱| 欧美三日本三级三级在线播放| 国产亚洲欧美精品久久久www| 中文字幕一区二区三区在线不卡| 中文字幕 亚洲一区| 国产一区在线精品| 婷婷免费在线观看| 母乳一区在线观看| 性一交一乱一伧国产女士spa| 1024精品久久久久久久久| 色一情一乱一伦一区二区三欧美| 日韩成人一级| 国产美女99p| 中文在线免费一区三区| 亚洲a中文字幕| 免费视频成人| 国产美女久久精品香蕉69| 亚洲最新无码中文字幕久久| 97**国产露脸精品国产| 女子免费在线观看视频www| 久久夜色撩人精品| 精品国产白色丝袜高跟鞋| 中文字幕视频一区二区在线有码 | www.亚洲天堂| 在线免费观看黄| 国产性猛交xxxx免费看久久| 免费在线黄色影片| 亚洲片av在线| 免费在线超碰| 在线日韩精品视频| 成人在线二区| 色狠狠av一区二区三区香蕉蜜桃| 国产剧情在线观看| 国产亚洲人成网站在线观看| www.在线播放| 日韩在线欧美在线| 老司机在线看片网av| 久久中文字幕在线| 26uuu亚洲电影在线观看| 欧美成人在线网站| 手机av在线播放| 午夜精品久久久久久久久久久久久 | 日本免费一区视频| 亚洲精品大尺度| 日韩av成人| 伊人av综合网| 国产精品刘玥久久一区| 久久69精品久久久久久久电影好| 美女尤物在线视频| 91av国产在线| 欧美性理论片在线观看片免费| 国产精品美女久久| 日日夜夜亚洲精品| av成人午夜| 思热99re视热频这里只精品| 日本成人看片网址| 久久在线电影| 日本熟妇人妻xxxx| 另类天堂av| 中文字幕在线观看日 | 国产a一区二区| 里番精品3d一二三区| 欧美日韩综合久久| 色综合五月天| 日韩中文字幕在线免费| 久久久人人人| 在线视频日韩欧美| av亚洲产国偷v产偷v自拍| 非洲一级黄色片| 亚洲欧美日韩国产成人精品影院 | 成人短视频在线| 97精品伊人久久久大香线蕉| 精品网站在线| 国产精品国产精品国产专区蜜臀ah| 自拍自偷一区二区三区| 国产精品jizz在线观看老狼| 亚洲激情视频| 日本爱爱免费视频| 国产成人免费视频网站高清观看视频 | 中国一级免费毛片| 精品视频免费在线| 内射后入在线观看一区| 中文字幕av一区中文字幕天堂| 国产后进白嫩翘臀在线观看视频| 国产精品黄色av| 给我免费播放日韩视频| 亚洲美女搞黄| 先锋影音久久| 在线观看免费看片| 久久精品欧美日韩| 日韩xxx高潮hd| 制服丝袜亚洲精品中文字幕| 黄色小视频在线免费观看| 色综合久久精品亚洲国产| 色尼玛亚洲综合影院| 波多野结衣久草一区| 狠狠色丁香婷婷综合影院| 日韩中文字幕在线免费| 国产在线视视频有精品| 女女互磨互喷水高潮les呻吟| 亚洲成a天堂v人片| 国产精品老熟女视频一区二区| 精品无人区太爽高潮在线播放 | 亚洲一区二区在线观看视频| 中文字幕免费在线看| 日韩久久精品电影| 麻豆av在线免费观看| 亚洲tv在线观看| 日韩av二区| 日日碰狠狠丁香久燥| 成人午夜在线免费| 久久久久久久久久网站| 欧美精品在线观看播放| 黄色av免费在线观看| 欧美一级大片在线观看| 澳门久久精品| 国产一区二区三区小说| 国产成人免费网站| 亚洲熟女www一区二区三区| 欧美精品三级日韩久久| 成人网视频在线观看| 日韩美女视频免费在线观看| 小嫩嫩12欧美| 97成人在线观看视频| 99久久夜色精品国产网站| 伊人国产在线观看| 精品国产99国产精品| 国产美女一区视频| 99在线国产| 国内精品美女在线观看| 绯色av蜜臀vs少妇| 亚洲在线视频免费观看| www.看毛片| 久久久综合av| 另类尿喷潮videofree| 欧美一区二区中文字幕| 99re热这里只有精品视频| 看片网址国产福利av中文字幕| 日韩av影片在线观看| 第一福利在线视频| 久久波多野结衣| 丝袜美腿成人在线| 人妻aⅴ无码一区二区三区| 欧美日韩中文国产| 日本在线观看| 成人国产一区二区| 亚洲国产免费看| 成人乱码一区二区三区av| 在线观看一区日韩| 免费看a在线观看| 99久久99久久| aa国产精品| av永久免费观看| 日韩一区二区在线免费观看| 免费在线观看av电影| 久久66热这里只有精品| 老司机午夜精品视频在线观看| 国产黄色录像视频| 欧美一区二区三区成人| 99riav视频在线观看| 欧美一区二区三区四区五区六区| 免费在线观看成人| 国产高清在线免费观看| 日韩精品视频在线| 亚洲天堂1区| 成人一级生活片| 久久久精品国产免大香伊| 国产一区二区三区三州| 国内精品久久久久| 精品视频免费| 男人的天堂免费| 日韩欧美在线免费观看| 免费**毛片在线| 久久久久久九九| 国产乱人伦偷精品视频不卡 | 日本一本在线免费福利| 欧美极品视频一区二区三区| 久久精品国产精品亚洲红杏| 日本少妇毛茸茸高潮| 日韩在线视频网| 美女一区2区| 中文字幕永久有效| 香蕉乱码成人久久天堂爱免费| 91亚洲精选| 久久66热这里只有精品| 国产专区欧美精品| 成人午夜视频在线播放| 欧美日韩ab片| 欧美jizz| 精品人妻少妇嫩草av无码|