精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

深度 | 自然語言處理領域深度學習研究總結:從基本概念到前沿成果

開發 開發工具 自然語言處理
這篇文章中,首先我們將了解為自然語言處理建立深度網絡的基本構建模塊,之后將對最近研究論文的一些應用進行討論。

[[181446]]

一、自然語言處理簡介

自然語言處理(NLP)是創造能夠處理或是「理解」語言以完成特定的任務的系統。這些任務可能包括:

  • 問答系統(也就是Siri、 Alexa和小娜所做的事情)
  • 情感分析(判斷一句話隱含的積極或消極意義)
  • 圖片題注(為輸入的圖像生成一個標題)
  • 機器翻譯(將一段文本翻譯成另一種語言)
  • 語音識別
  • 詞性標注
  • 命名實體識別

傳統的自然語言處理方法涉及到了很多語言學本身的知識。理解諸如音素(phonemes)和語素(morphemes)等術語都是非常必須的,為了學習這些專業知識,還要學習完整的語言學課程。接下來讓我們看一些傳統的自然語言處理是如何理解下面這一單詞的。

Uninterested

假設我們的目標是要收集關于這一單詞的一些信息(描述它的情感、尋找它的定義等)。利用我們在語言上的專業知識,我們把這個單詞分為三部分。

傳統的自然語言處理Uninterested

我們知道這個單詞的前綴「un」表示的是一種相對立的或是相反的概念,「ed」能夠限定這個單詞的時態(過去時)。通過對這個單詞主干部分「interest」的理解,我們能夠很容易地推斷出整個單詞的意思和情感。看起來是不是非常地簡單?但是,當你要考慮到英語中所有不同的前綴和后綴的時候,可能就需要一位非常有技巧的語言學家才能理解所有可能的組合和意義。

傳統的自然語言處理

1. 如何將深度學習應用其中

深度學習,從其最基本的層面來說,是表征學習(representation learning)的一種方法。利用卷積神經網絡,我們可以看到用來對事物進行分類的不同過濾器的組成。在這里,我們將要采取一種類似的方法,利用大數據集為詞匯創造表征。

2. 本文概述

這篇文章中,首先我們將了解為自然語言處理建立深度網絡的基本構建模塊,之后將對最近研究論文的一些應用進行討論。大多數人都不明確了解為什么我們要使用循環神經網絡(RNN)或者是長短期記憶(LSTM)為什么會有用,但是我希望在我們討論完研究論文之后,你可以對為什么深度學習會為自然語言處理提供這么大的幫助有更好的理解。

二、詞向量

因為深度學習和數學密不可分,我們將要把每一個單詞都表征為一個d維向量。我們將d設定為6。

每一個單詞都表征為一個d維向量

現在讓我們想一想該如何填寫值。我們希望填寫值的方式可以讓向量表征詞,以及詞的語境、意思或語義。一種方法就是建立一個共生矩陣(coocurence matrix)。以下面這一句話為例。

建立一個共生矩陣(coocurence matrix)

在這一句話中,我們想要給每一個詞都建立一個詞向量。

給每一個詞都建立一個詞向量

共生矩陣中包含了在語料庫(或是訓練集)中每一個詞出現在其他詞語旁邊的次數。讓我們看看下面這個矩陣。

共生矩陣

將這個矩陣的行提取出來能夠讓我們對詞向量有一個簡單的初始化。

個矩陣的行提取出來

注意,通過這個簡單的矩陣,我們將能收獲非常有用的見解。例如,注意「love」和「like」,這兩個詞與名詞(NLP 和dogs)相連的次數都是1。和「I」相連的次數也是1,所以這表明這兩個單詞一定是動詞。如果說我們擁有更大的數據集,而不是簡單的一句話,你可以想象,這種相似性就會變得越來越明顯,就像是「love」和「like」一樣,其它的一些同義詞也會開始擁有相似的詞向量,因為它們一般都會在相似的語境下使用。

現在,雖然我們的起點很好,但是我們也注意到每一個詞的維度都會隨著語料庫的擴大直線上升。如果我們有100萬個詞(在自然語言處理的標準中不算多),我們就會有100萬乘以100萬大小的矩陣,而且這一矩陣會非常的稀疏(有很多的0)。從存儲效率來看這一定不是最好的。在尋找表征這些詞向量的最優方法中也存在著很多的先進技術。其中最著名的就是Word2Vec。

三、Word2Vec

詞向量初始化技術的基本思路就是要在詞向量中儲存盡可能多的信息,同時也要將維度控制在一個可以管理的范圍之內(25 – 1000維是理想的)。Word2Vec讓我們可以預測每一個單詞周圍的單詞。還是以我們之前提到的句子「I love NLP and I like dogs.」為例。我們首先來看一看這句話的前三個單詞,因此我們就要把我們的窗口大小m設置為3.

I love NLP and I like dogs

現在,我們的目標是提取中心詞「love」,然后預測可能在這個詞之前或之后出現的詞。我們應該怎么做呢?通過將一個函數最大化/最優化!一般來說,我們的函數都會將現有中心詞的上下文單詞的對數概率最大化。

I love NLP and I like dogs

讓我們再做一些更深入的了解。上文中的成本函數基本上是在說我們要增加「I」和「love」以及「NLP」和「love」的對數概率(love在兩種情形當中都是中心詞)。變量T代表的是訓練句子的數量。讓我們再來了解一下對數概率。

Vc是中心詞的詞向量。每一個單詞都有兩次向量表征(Uo 和 Uw),其中一個是當單詞作為中心詞時,另一個是當單詞用作外部詞語時。這些向量都經過隨機梯度下降法的訓練。這一定是令人困惑的方程式之一,也是我們需要理解的,所以如果你還是難以想象正在發生的事情,你可以查看更多的資源加以了解。

一言以蔽之:在給定一個中心詞的情況下,Word2Vec 通過最大化上下文單詞的對數概率并通過隨機梯度下降(SGD)來修改向量,試圖找到不同詞的向量表征。

注:論文《Distributed Representations of Words and Phrases and their Compositionality》談到了更多細節:常見詞的負采樣和子采樣能如何被用于獲取更精確的詞向量。)

Word2Vec 的最有趣的貢獻在于展現出不同詞向量之間的線性關系。訓練后,詞向量似乎捕捉到了不同語法和語義概念。

難以置信的是,這些線性關聯可以如何通過一個簡單的目標函數和優化技巧得以形成。

福利:另一個很酷的詞向量初始化方式:GloVe(將共生矩陣與Word2Vec結合起來):http://nlp.stanford.edu/pubs/glove.pdf

四、循環神經網絡(RNN)

現在我們已經擁有詞向量了,然后看看它們是如何擬合循環神經網絡的。循環神經網絡現在已是大多數自然語言處理(NLP)的必需品。循環神經網絡最大的優點是它能有效地使用先前時間步驟的數據。這就是一小塊循環神經網絡大概的樣子。

循環神經網絡(RNN)

在底部我們有詞向量(xt,xt-1,xt+1)。每一個向量在同一時間步驟(ht, ht-1,ht+1)有一個隱藏狀態向量(hidden state vector)。我們稱這些為一個模塊。

循環神經網絡(RNN)

循環神經網絡每個模塊中的隱藏狀態是前一時間步驟(previous time step)的隱藏狀態向量和詞向量的函數:

循環神經網絡(RNN)

如果仔細看看上標,你會發現有一個權重矩陣Whx,我們會將Whx矩陣與輸入相乘,并且會有一個循環權重的矩陣(recurrent weight matrix)Whh乘以在前一時間步驟的隱藏狀態向量。切記這些循環權重矩陣在所有時間步驟都是相同的,這也是循環神經網絡的關鍵點。仔細想想,這和傳統兩層神經網絡有很大的不同。傳統情況下,我們每一層(W1和W2)通常會有不同的權重矩陣W,而這里的循環權重矩陣在整個網絡中都是相同的。

要得到特定模塊的輸出(Yhat),就需要將h乘以WS,這是另外一個權重矩陣。

循環神經網絡(RNN)

現在我們退一步,了解循環神經網絡的優點在哪。與傳統神經網絡最大的不同就是循環神經網絡可以接收輸入序列(我們例子中的詞)。你可以將其與典型的卷積神經網絡對比,其只能是將單一圖片作為輸入。然而使用循環神經網絡,輸入可以小到短句,大到有 5 個段落的文章。此外,該輸入的序列順序能極大地影響到權重矩陣和隱藏向量在訓練中如何改變。隱藏狀態在訓練后期望能從過去(前面的時間步驟)獲取信息。

五、門控循環單元(GRU)

現在讓我們看一個門控循環單元(gated recurrent unit/GRU)。這個單元的目標是提供一種更復雜的方法來計算我們在循環神經網絡中的隱藏狀態向量(hidden state vectors )。這種方法將允許我們儲存信息并捕獲長距依賴性(long distance dependencies)。讓我們想象下為什么長期依賴性(long term dependencies)在傳統的循環神經網絡構架中存在問題。在反向傳播中,誤差將流經循環神經網絡,從最近的時間步驟到最早的時間步驟。如果初始梯度是較小的數字(如小于0.25),那么在通過第三或第四模塊時,梯度實際上會消失(鏈式規則與梯度一起乘積),因此較早時間步驟的隱藏狀態將不會更新 。

在傳統循環神經網絡中,隱藏狀態向量是通過該公式計算的:

門控循環單元(GRU)

GRU提供了一個不同的方式計算隱藏狀態向量h(t),該計算分為三個分量,一個更新門(update gate)、一個重置門(reset gate)和一個新的記憶存儲器(memory container)。兩個門都是輸入詞向量和在前時間步驟的隱藏狀態函數:

門控循環單元(GRU)

關鍵區別是每個門使用不同的權重,這由不同上標來表示。 更新門(update gate)使用Wz和Uz,而重置門(reset gate)使用Wr和Ur。

現在,新的記憶存儲器(memory container)就是通過以下方式來計算的:

門控循環單元(GRU)

(空心點指的是Hadamard 積)

現在,如果仔細看看公式,你會發現如果重置門的值接近0,那么這整個項也會變成0,因此忽略了在先前時間步ht-1的信息。在這種情況下,計算單元僅僅只是新詞向量xt的函數。

h(t)的最終公式如下:

門控循環單元(GRU)

ht 是一個有三個部分的函數:重置門、更新門以及記憶存儲器。理解這一點的最佳方式就是當 zt 接近1 以及 0 的時候,視覺化所發生的情況。當 zt 靠近1,新的隱藏層向量 ht 幾乎取決于之前的隱藏層,而且因為(1-zt) 變成 0,我們忽略了當前記憶存儲。當 zt 接近 0 時,新的隱藏層向量幾乎取決于當前記憶存儲,我們忽略了之前的隱藏層狀態。以一種直覺的方式觀察這三個組成部分,可以歸納為以下:

1.更新門(Update Gate):

  • 如果zt趨向于1,ht就完全忽略現在的詞向量,僅僅只是復制前隱藏狀態(如果不是太理解,請查看ht方程并注意當zt趨向于1時,1-zt有什么改變)。
  • 如果zt趨向于0,ht就完全忽略前一時間步驟的隱藏狀態,僅僅只依賴于新的記憶存儲器。
  • 此門控能讓模型控制前一隱藏狀態的信息多大程度上影響現在的隱藏狀態。

2.重置門(Reset Gate):

  • 如果rt趨向于1,記憶存儲器將保持前一隱藏狀態的信息。
  • 如果rt趨向于0,記憶存儲器將忽略前一隱藏狀態的信息。
  • 此門控能允許模型在丟棄一些對未來不相干的信息。

3.記憶存儲器(Memory Container): 依賴于重置門。

一個通常用來說明 GRU 有效的例子如下:假設你遇到下面一段話

用來說明 GRU 有效的例子

以及相關問題 What is the sum of the 2 numbers 。既然中間句子對手邊問題絕對沒有影響,但是,重置和刷新門會讓網絡在某種意義上“忘記”中間的句子,并學會只有特定信息(這個例子中的數字)才應修改隱藏狀態。

六、長短期記憶單元(LSTM)

如果你對GRU 已經很了解了,那理解LSTM對你一定不會太難 。一個LSTM也是由一連串的門(gate)組成。

長短期記憶單元(LSTM)

當然, 這里面涉及到更多的知識。 不過因為LSTM可以理解為GRU的衍生物,我將不會過多的分析,但如果你想更深入的了解每個門, 每個計算,你可以點擊查看Chris Olah 寫的一篇超棒的博文:http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 。這篇文章是目前關于LSTM最受歡迎的教程,并且一定對你們這些想要知道其背后的工作原理的人提供很大的幫助。

七、比較和對比 LSTM 與 GRU

讓我們先從相似點出發。 兩者的單元組件都有一個能夠記錄長時間的詞與句子之間依賴關系的特殊函數。 這種長期依賴性, 指的是在一些情況下, 兩個詞或者詞組可能在不同的時間點出現,但兩者間的關系對實現最終目標十分關鍵。 LSTM 和GRU 能夠通過一些門(gate)來忽略或者保留語句中的某種信息,從而捕捉這些依賴性。

兩者基本單元的不同處在于, 它們擁有的門(gate)的數量(GRU有兩個, LSTM有三個)。這一點將影響到輸入能夠傳遞的非線性關系個數, 并且最終影響到總體的計算。 另外,GRU并沒有和LSTM的記憶單元(C_t)一樣的記憶單元。

八、在閱讀論文之前

這部分只是想快速做個提示:還有其它的深度模型對NLP有用。在實踐中有時使用循環神經網絡和CNN,但卻不像RNN 這么流行,它是大部分深度學習NLP系統的支柱。現在,我們已經對NLP與深度學習的關系有了足夠了解,接下來看幾篇論文。由于NLP領域有不同的問題(從機器翻譯到問答系統),所以圈內有大量可以看的論文,但我在此文章中發現了3篇很有洞見的論文。2016年NLP領域有了極大的發展,但我們先從2015年的一篇論文開始說起。

1. 記憶網絡(Memory Networks)

論文:https://arxiv.org/pdf/1410.3916v11.pdf

介紹

我們首先要討論的第一篇論文, 在問答系統這一子領域很有影響力。 這篇論文由Jason Weston, Sumit Chopra以及 Antoine Bordes撰寫,介紹了一類名為memory networks 記憶網絡的模型。

這一想法來自于當你想要精準地回答一個關于一篇文本的問題, 你必須要記住該文本大致的內容。如果我來問你一個問題“RNN表示什么’”(在你已經完全閱讀了這篇博文的前提下) 你就一定能告訴我答案。 這是因為你通過閱讀、存儲記憶,已經吸收了這些知識。你只需要簡單的花幾秒鐘去定位這條信息, 然后把它用通順的語言表達出來。 目前, 我并不知道大腦是如何做到的, 但需要地方去存儲信息的這一想法一定是存在的。

這篇論文描述的記憶網絡有些特別,因為它含有一個聯想記憶(associative memory )。這種聯想記憶能夠讀寫。 值得注意的是我們在CNN或者Q網絡(用于強化學習)或者其它的傳統網絡中并不能找到這種類型的網絡。這有部分是因為問答任務很大程度上依賴于系統能夠建模或者追蹤長期的依賴關系,比如在一個完整的故事中記錄一個人物的進展,或者記錄時間軸上的重要事件。在CNN或者Q網絡中, 記憶模塊被植入在網絡的權重體系中,因為網絡需要能夠學習不同的濾波器或者將狀態映射到動作上。 初看, RNN和LSTM可能能用來實現這一記憶功能, 但它們通常不能記住來自過去的輸入, 而這對于問答系統是至關重要的。

網絡架構

好的,讓我們看看這個網絡是如何處理給定的最初文本的。和幾乎所有的機器學習算法一樣,首先將輸入轉變成一個特性表征。這需要用到詞向量、詞性標注、解析等,這些是由程序員決定的。

網絡架構

下一步就是提出特征表征I(x),并允許我們的記憶 m 進行更新,從而反映出我們已經接收到的新輸入 x。

網絡架構

你可以將記憶 m 視為由單個的記憶 mi 構成的一個序列。這些單個記憶 mi 的每一個都能成為整個記憶 m 的一個函數,特征表征 I(x),和\或其自身。函數 G 能簡單到在單個記憶單元 mi 中僅存儲整個表征 I(x)。你能基于新輸入修改函數 G ,更新過去的記憶。第三、四部包括根據問題讀取記憶,獲得一個特征表征 o, 然后將其解碼輸出一個最終答案。

網絡架構

函數 R 可以是個 RNN,被用來將來自記憶的特征表征轉化為一個可讀的、準確的問題答案。

現在,進一步看看第三步。我們希望 O模塊能輸出一個特征表征,將可能的答案最好匹配給一個給定問題 x。現在,這個問題會與每一單個的記憶單元進行比較,也會根據記憶單元能否好好支持問題來打分。

我們求評分函數的 argmax,找到能最好支持問題的輸出表征(你也可以取多個最高得分單元,不必限于1個)。評分函數就是計算不同問題嵌入和選中記憶單元之間的矩陣積。(欲知詳情,請閱讀論文)。當你乘以兩個詞向量以求其相似性時,你會想到這個。然后,這一輸出表征 o 會被輸入一個 RNN 或者 LSTM ,或者輸入另一個會輸出可讀結果的評分函數。

訓練方式是監督訓練,訓練數據包括原始文本、問題、支撐句( supporting sentences)以及基底真實答案。這里是目標函數。

感興趣的讀者,下面這些論文談到了構建這類記憶網絡的方法:

End to End Memory Networks (https://arxiv.org/pdf/1503.08895v5.pdf) (僅需監督輸出,不支持句子)

Dynamic Memory Networks (https://arxiv.org/pdf/1506.07285v5.pdf)

Dynamic Coattention Networks (https://arxiv.org/pdf/1611.01604v2.pdf)(2個月前才發布,斯坦福問答數據組中獲最高得分

2. 情感分析的樹LSTMs

論文:https://arxiv.org/pdf/1503.00075v3.pdf

介紹

下一篇論文分析了情感分析領域取得的進展,情感分析就是判定某個短語的語氣/意義是積極的還是消極的。更正式一點的說法,情感可以被定義為對某一狀況或時間的觀點或態度。這時,LSTMs就是情感分析網絡中最常用到的部件。這篇由Kai Sheng Tai, Richard Socher, and Christopher Manning 合作的論文介紹了一種將LSTMs 鏈入非線性結構的有趣方法。

這種非線性安排背后的想法在于:自然語言具有這樣的特質,亦即單詞按某種順序排列后就變成短語。這些依據單詞順序構成的短語所表達的意思和構成短語的單詞的意思是不同的。為了能表征出這一特點,一個LSTM的網絡單元就必須被安排進一個樹結構,其中 ,不同的單元會受它們的子節點( children nodes)影響。

網絡架構

Tree LSTM 和 標準 LSTM 的一個不同之處在于,后者隱藏狀態是一個關于當前輸入和之前時間步驟上的隱藏狀態的函數。不過,有了這個結構,它的隱藏狀態就是關于當前輸入及其子單元隱藏狀態的函數。

情感分析的樹LSTMs網絡架構

新的樹結構會帶來一些數學上的變化,包括子單元忽略掉門。那些對細節感興趣的讀者,可以研讀這篇論文。不過我的焦點是理解這些模型會比線性的LSTM效果更好的原因。

一個Tree-LSTM,一個單獨的單元就可以吸收所有子節點的隱藏狀態。這很有趣,因為一個單元可以分別評估其子節點。訓練過程中,網絡能意識到一個特定的單詞(或許是情感分析中的“not”或者“very”)對句子整體情感分析的極端重要性。能給予那個節點更高一點的估值,這一能力讓網絡具有了很大的靈活性,也提升了網絡表現。

3. 神經機器翻譯

論文:https://arxiv.org/pdf/1609.08144v2.pdf

介紹

最后一篇論文講述了解決機器翻譯任務的方法。作者來自谷歌機器學習那些頗有遠見的學者們 :Jeff Dean、Greg Corrado、Orial Vinyals 等。這篇文章介紹了一種機器翻譯系統,也是谷歌翻譯服務背后的支柱。較之谷歌之前使用的產品系統,該系統平均降低了60%的翻譯誤差。

自動翻譯的傳統解決方案包括基于短語的變量匹配。這一方法需要大量語言領域的知識而且這一設計最終也被證實太脆弱也缺乏泛化能力。傳統解決方案的問題之一就是一點一點地翻譯輸入句子。結果,更有效的解決方法是一次翻譯整個句子,這種方法讓更廣泛的上下文以及更加自然的語詞再安排成為可能。

網絡架構

該論文的作者介紹了一個深度 LSTM 網絡,能夠用 8個解碼器和編碼器層進行端到端的訓練。我們能把該系統分解成3個組件:編碼器RNN、解碼器RNN、注意模塊。從高層級來看,編碼器要做的任務是將輸入語句轉換成向量表征,然后解碼器產生輸入表征,然后注意模塊提示解碼器在解碼的過程中應該注意什么(這是利用輸入語句全部語境的思路所在)。

神經機器翻譯網絡架構

論文的其他部分主要專注于規模化該服務的挑戰上。計算資源量、時延、高容量部署這樣的話題都進行了長篇介紹。

九、結論

在此博客中,我們總結了深度學習如何幫助了自然語言處理任務。在我的認識中,該領域內的一些未來目標包括:改進消費者服務聊天機器人、完美的機器翻譯,并且希望能讓問題回答系統掌握對無結構文本或長文本(比如 wikipedia 文本頁)更深的理解能力。

原文:https://adeshpande3.github.io/adeshpande3.github.io/Deep-Learning-Research-Review-Week-3-Natural-Language-Processing

【本文是51CTO專欄機構機器之心的原創譯文,微信公眾號“機器之心( id: almosthuman2014)”】

 

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2017-02-20 14:12:49

自然語言處理研究

2017-03-27 20:42:17

遷移學習人工智能機器學習

2017-04-10 16:15:55

人工智能深度學習應用

2017-10-19 17:05:58

深度學習自然語言

2017-08-23 09:36:21

2017-05-05 15:34:49

自然語言處理

2017-03-30 17:54:28

深度神經網絡人工智能 DNN

2017-05-02 14:45:11

深度學習機器學習人工神經網絡

2022-02-17 09:00:00

深度學習人工智能表征學習

2020-03-05 09:53:59

ElasticSearLuceneJava

2021-09-16 19:22:06

Java概念concurrent

2017-07-28 10:20:47

深度學習自然語言神經機器

2022-04-02 21:34:43

人工智能自然語言機器學習

2017-07-28 15:45:43

深度學習自然語言神經網絡

2017-03-27 16:35:23

2012-09-11 14:39:03

Moosefs

2019-10-16 14:10:24

人工智能深度學習技術

2016-01-14 09:30:46

Hive概念安裝使用

2020-09-23 10:45:45

人工智能自然語言NLP

2025-01-14 13:20:56

點贊
收藏

51CTO技術棧公眾號

久久久影视传媒| 亚洲人体大胆视频| 日韩欧美一级二级| 久久国产精品视频在线观看| 免费在线黄色网址| 经典一区二区三区| 91国产中文字幕| 国精产品一区一区| 国产成人精品亚洲线观看| 色av一区二区| 国产肉体ⅹxxx137大胆| 黄色片视频在线观看| 国产真实乱子伦精品视频| 97在线视频免费看| 神马久久久久久久久久久| eeuss鲁片一区二区三区| 欧美在线|欧美| 国产3p露脸普通话对白| 欧美激情午夜| 久久久久久久久久久久久久久99| 成人高清视频观看www| 性无码专区无码| 欧美日韩精品| 久久久电影免费观看完整版| 精品人妻无码一区二区三区| 日韩精品成人在线观看| 欧美三级欧美一级| 久色视频在线播放| 污视频在线看网站| 国产精品日韩成人| 欧美极品一区| 三级视频在线看| 久久se精品一区精品二区| 国产91精品久久久久久久| 免费人成年激情视频在线观看| 欧美精品一区二区久久| 日韩高清人体午夜| 99re这里只有| 国产精品香蕉| 欧美精品一区二区三区视频| 最好看的中文字幕| 欧美大片1688网站| 一本色道久久综合亚洲aⅴ蜜桃| 久久99久久99精品| 成人福利电影| 午夜亚洲福利老司机| 欧美狂野激情性xxxx在线观| 2024最新电影免费在线观看| 亚洲人亚洲人成电影网站色| 先锋在线资源一区二区三区| 国产在线中文字幕| 久久精品亚洲麻豆av一区二区| 国产一区免费观看| 人妻妺妺窝人体色www聚色窝| 高清av一区二区| 操一操视频一区| 国产强被迫伦姧在线观看无码| 捆绑调教一区二区三区| 国产日韩精品一区二区| 97精品人妻一区二区三区香蕉| 日本强好片久久久久久aaa| 国产精品扒开腿做| 一级特黄aaaaaa大片| 精品伊人久久久久7777人| 91精品视频大全| 99在线观看免费| 国产成人av电影在线观看| 国产传媒一区二区| 天堂a√在线| 国产亚洲精品精华液| 色女人综合av| xvideos国产在线视频| 亚洲国产日产av| 岳毛多又紧做起爽| 久久av日韩| 日韩欧美一区二区免费| 欧美日韩人妻精品一区在线| 亚洲色图美女| 中国人与牲禽动交精品| 国产精品视频一区二区在线观看| 午夜精品久久久久99热蜜桃导演| 高清亚洲成在人网站天堂| 久久国产视频一区| 精品一区免费av| 久久本道综合色狠狠五月| av黄色在线观看| 亚洲激情在线激情| 日韩精品一区二区三区久久| 草莓视频成人appios| 91夜夜蜜桃臀一区二区三区| 日韩欧美aⅴ综合网站发布| 香蕉视频网站入口| 视频精品一区| 精品伊人久久97| 亚洲波多野结衣| 一本一本久久| 国产区亚洲区欧美区| 亚洲毛片在线播放| 国产亚洲欧美激情| 国产一二三区在线播放| 偷拍精品精品一区二区三区| 7777精品伊人久久久大香线蕉的| 91精品又粗又猛又爽| 欧美精美视频| 色综合五月天导航| 亚洲av人无码激艳猛片服务器| 国产精品91一区二区| 欧美日本韩国国产| 日韩免费影院| 欧美日韩一区二区欧美激情| 欧美激情一区二区三区p站| 欧洲杯什么时候开赛| 久久免费视频在线| 国产精品一级二级| 国产欧美精品区一区二区三区| 17c丨国产丨精品视频| 免费高清视频在线一区| 精品av久久707| 日本精品在线免费观看| 水蜜桃久久夜色精品一区的特点 | 99精品在线免费观看| 日韩大片免费观看视频播放| 欧美片一区二区| 久久精品72免费观看| 欧美日韩免费高清| 蜜臀av在线| 日韩一区国产二区欧美三区| 激情五月激情综合| 天堂一区二区在线免费观看| 精品国产一区二区三区麻豆小说| 污污的网站在线看| 日韩欧美综合在线| √天堂中文官网8在线| 麻豆国产欧美一区二区三区| 免费av一区二区三区| 九九色在线视频| 91精品国产91久久综合桃花 | 97视频精品| 国产精品成人v| 精品999视频| 一本色道a无线码一区v| 亚州av一区二区| 日韩精品在线不卡| 成人av影院在线| 成人免费a级片| 一区二区三区亚洲变态调教大结局| 日韩在线观看免费| 国产精品久久久久久久一区二区 | 久久精品免费看| 亚洲日本欧美在线| 亚洲国产伊人| 不卡av电影在线观看| 国产精品伦理一区| 亚洲欧美精品午睡沙发| 北条麻妃亚洲一区| 在线成人直播| 成人午夜电影免费在线观看| 青草青在线视频| 亚洲电影免费观看高清完整版在线| 麻豆changesxxx国产| 国产99精品在线观看| 996这里只有精品| 国产色噜噜噜91在线精品| 韩国精品美女www爽爽爽视频| 少妇人妻一区二区| 色av成人天堂桃色av| 992在线观看| 国产精品白丝jk白祙喷水网站| av在线免费观看国产| 特黄特色欧美大片| 国产精品成人va在线观看| 激情成人四房播| 欧美电影免费提供在线观看| 日韩精品一区二区不卡| 久久久噜噜噜久久中文字幕色伊伊| 999香蕉视频| 性xxxx欧美老肥妇牲乱| 成人动漫视频在线观看完整版| av电影院在线看| 国产午夜精品免费一区二区三区| 一级黄色免费看| 亚洲一区二区三区国产| 国产精品无码一区二区三区| 麻豆91在线观看| 免费人成自慰网站| 精品香蕉视频| 国产精品亚洲综合| 草莓视频成人appios| 久久久久亚洲精品| 国产午夜在线观看| 欧美不卡在线视频| 精品国产乱子伦| 亚洲综合在线第一页| 国产成人福利在线| 成人在线综合网站| 在线观看av网页| 99在线精品视频在线观看 | 国内自拍一区| 视频一区视频二区视频三区高| 日韩一区二区三区精品| 日本亚洲欧洲色| 色在线视频网| 中文字幕久精品免费视频| 好吊色一区二区三区| 欧美日韩国产高清一区二区三区| 91久久国产视频| 亚洲免费在线电影| 91资源在线播放| 99久久久久免费精品国产| 国产女同无遮挡互慰高潮91| 久久免费国产| a级黄色小视频| 亚洲精品一区二区妖精| 欧美一区二区影视| 女同一区二区三区| 7777精品伊久久久大香线蕉语言| 亚洲www啪成人一区二区| 国语自产精品视频在线看| 国产黄色在线免费观看| 亚洲视频一区二区| 香蕉视频国产在线| 欧美va亚洲va| 国产美女裸体无遮挡免费视频| 日韩欧美一区视频| 久久精品国产亚洲AV无码麻豆| 成人欧美一区二区三区黑人麻豆 | 亚洲特黄一级片| 夫妇露脸对白88av| 久久久影院官网| 免费a v网站| 成人午夜视频网站| 色欲无码人妻久久精品| 经典三级在线一区| 欧美婷婷精品激情| 日本色综合中文字幕| 色婷婷综合久久久久中文字幕| 国产亚洲一区在线| 欧美成人三级在线视频| 一区福利视频| 亚洲人精品午夜射精日韩| 国产专区一区| 岛国大片在线播放| 亚洲精品美女| 国产精品无码人妻一区二区在线| 亚洲国产婷婷| 黄色www网站| 国产精品社区| 日韩欧美精品在线观看视频| 免费永久网站黄欧美| 人妻精品无码一区二区三区 | 一区二区三区在线观看网站| 少妇影院在线观看| 亚洲综合色噜噜狠狠| 久久久精品国产sm调教| 亚洲一区二区在线观看视频| 国产主播在线播放| 韩曰欧美视频免费观看| 永久免费无码av网站在线观看| 在线视频一区二区三区| 自拍偷拍第八页| 69精品人人人人| 亚洲乱码在线观看| 亚洲国产97在线精品一区| 色视频在线观看| 国产一区二区日韩| 欧美一区二区三区| 欧美激情亚洲激情| 亚洲优女在线| 国产日韩欧美中文| 97久久精品| 欧美亚洲丝袜| 久久国产精品成人免费观看的软件| 中文字幕av久久| 伊人成年综合电影网| 熟女人妇 成熟妇女系列视频| 老司机精品视频导航| av电影在线播放| 久久精品欧美一区二区三区麻豆| 日本少妇aaa| 亚洲成人av中文| 日韩国产成人在线| 日韩欧美一二三区| 色视频在线观看| 久久最新资源网| 小h片在线观看| 成人一区二区电影| 日韩电影不卡一区| 亚洲一区三区| 99精品久久| 天天操天天干天天做| www.欧美精品一二区| 亚洲色图 激情小说| 亚洲国产综合视频在线观看| 嫩草影院一区二区三区| 欧美不卡一二三| av在线天堂| 97香蕉久久夜色精品国产| 欧美三级电影网址| 精品国产乱码久久久久| 欧美超碰在线| 国产精品欧美激情在线观看| 国产美女在线精品| 国产精品天天干| 亚洲午夜免费电影| 国产男男gay体育生网站| 日韩美女av在线| 亚洲七七久久综合桃花剧情介绍| 国产高清在线不卡| 欧美日韩看看2015永久免费 | 国产日韩欧美三区| 在线观看av免费观看| 国产视频一区在线播放| 国产精品111| 制服丝袜亚洲色图| www在线播放| 日本久久精品视频| 国产精品久久久久av蜜臀| 一本一道久久a久久精品综合| 亚洲一区日本| 午夜剧场免费看| 亚洲一区二区综合| 国产成人精品a视频| 色综合影院在线| 3d性欧美动漫精品xxxx软件| 国产精品视频入口| 国产精品久久| 久久久久亚洲av无码麻豆| 国产精品国产馆在线真实露脸| 亚洲大片免费观看| 日韩精品免费一线在线观看| 国产乱码在线| 国产精品对白一区二区三区| 亚洲91视频| 91蝌蚪视频在线| 日韩理论片网站| 国产视频aaa| 免费91在线视频| 精品国产第一国产综合精品| 9999在线观看| 狠狠色狠狠色合久久伊人| 999福利视频| 91麻豆精品国产自产在线| 免费a级人成a大片在线观看| 国产噜噜噜噜久久久久久久久| 成人6969www免费视频| 青青草av网站| 国产亚洲欧美色| 夜夜骚av一区二区三区| 最新国产精品亚洲| www一区二区三区| 中国一级大黄大黄大色毛片| 久久99久久99| 日日骚一区二区三区| 精品久久人人做人人爰| 变态调教一区二区三区| 久久精品99久久| 鲁大师成人一区二区三区 | 四虎影视精品成人| 2019av中文字幕| 九九久久精品| 一区二区三区 日韩| 亚洲色图制服丝袜| 欧美特级特黄aaaaaa在线看| 91wwwcom在线观看| 成人激情开心网| 91欧美一区二区三区| 亚洲网友自拍偷拍| 国产一级免费在线观看| 国产日韩欧美电影在线观看| 国产精品分类| 亚洲熟妇一区二区三区| 欧美三级三级三级爽爽爽| 91高清在线观看视频| 久久久精品动漫| 久久av中文字幕片| 精品在线免费观看视频| 亚洲欧洲黄色网| 精品视频国内| 欧洲av无码放荡人妇网站| 1024亚洲合集| 天天操天天射天天| 国产精品女人网站| 国产一区久久| 色屁屁草草影院ccyy.com| 欧美一区二区三区精品| 亚洲精品福利电影| 黄色高清视频网站| ww久久中文字幕| 国产精品爽爽久久| 欧美中文在线视频| 91精品精品| 黄色国产在线观看| 精品视频在线免费看| 国产伦理精品| 特级毛片在线免费观看| 久久久久久电影| 欧美熟女一区二区| 亚洲一区二区三区sesese| 亚洲综合国产激情另类一区| 青草草在线视频|