精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

你知道《圣經》中的主要角色有哪些嗎?三種NLP工具將告訴你答案!

開發 開發工具
本文將以《圣經》為例,用 spaCy Python 庫把三個最常見的 NLP 工具(理解詞性標注、依存分析、實體命名識別)結合起來分析文本,以找出《圣經》中的主要人物及其動作。

提到數據科學,我們想到的都是數字的統計分析,但如今需要對很多非結構文本進行量化分析。本文將以《圣經》為例,用 spaCy Python 庫把三個最常見的 NLP 工具(理解詞性標注、依存分析、實體命名識別)結合起來分析文本,以找出《圣經》中的主要人物及其動作。

[[233875]]

引言

在思考數據科學的時候,我們常常想起數字的統計分析。但是,各種組織機構越來越頻繁地生成大量可以被量化分析的非結構文本。一些例子如社交網絡評論、產品評價、電子郵件以及面試記錄。

就文本分析而言,數據科學家們通常使用自然語言處理(NLP)。我們將在這篇博客中涵蓋 3 個常見的 NLP 任務,并且研究如何將它結合起來分析文本。這 3 個任務分別是:

  • 詞性標注——這個詞是什么類型?
  • 依存分析——該詞和句子中的其他詞是什么關系?
  • 命名實體識別——這是一個專有名詞嗎?

我們將使用 spaCy Python 庫把這三個工具結合起來,以發現誰是《圣經》中的主要角色以及他們都干了什么。我們可以從那里發現是否可以對這種結構化數據進行有趣的可視化。

這種方法可以應用于任何問題,在這些問題中你擁有大量文檔集合,你想了解哪些是主要實體,它們出現在文檔中的什么位置,以及它們在做什么。例如,DocumentCloud 在其「View Entities」分析選項中使用了類似的方法。

分詞 & 詞性標注

從文本中提取意思的一種方法是分析單個單詞。將文本拆分為單詞的過程叫做分詞(tokenization)——得到的單詞稱為分詞(token)。標點符號也是分詞。句子中的每個分詞都有幾個可以用來分析的屬性。詞性標注就是一個例子:名詞可以是一個人,地方或者事物;動詞是動作或者發生;形容詞是修飾名詞的詞。利用這些屬性,通過統計最常見的名詞、動詞和形容詞,能夠直接地創建一段文本的摘要。

使用 spaCy,我們可以為一段文本進行分詞,并訪問每個分詞的詞性。作為一個應用示例,我們將使用以下代碼對上一段文本進行分詞,并統計最常見名詞出現的次數。我們還會對分詞進行詞形還原,這將為詞根形式賦予一個單詞,以幫助我們跨單詞形式進行標準化。

  1. from collections import Counter 
  2. import spacy 
  3. from tabulate import tabulate 
  4. nlp = spacy.load('en_core_web_lg') 
  5.  
  6. text = ""
  7. One way to extract meaning from text is to analyze individual words. 
  8. The processes of breaking up a text into words is called tokenization -- 
  9. the resulting words are referred to as tokens. 
  10. Punctuation marks are also tokens. 
  11. Each token in a sentence has several attributes we can use for analysis. 
  12. The part of speech of a word is one example: nouns are a person, place, or thing; 
  13. verbs are actions or occurences; adjectives are words that describe nouns.  
  14. Using these attributes, it's straightforward to create a summary of a piece of text 
  15. by counting the most common nouns, verbs, and adjectives.  
  16. """ 
  17.  
  18. doc = nlp(text) 
  19. noun_counter = Counter(token.lemma_ for token in doc if token.pos_ == 'NOUN') 
  20.  
  21. print(tabulate(noun_counter.most_common(5), headers=['Noun', 'Count'])) 
  1. Noun         Count 
  2. ---------  ------- 
  3. word             5 
  4. text             3 
  5. token            3 
  6. noun             3 
  7. attribute        2 

依存分析

單詞之間也是有關系的,這些關系有好幾種。例如,名詞可以做句子的主語,它在句子中執行一個動作(動詞),例如「Jill 笑了」這句話。名詞也可以作為句子的賓語,它們接受句子主語施加的動作,例如「Jill laughed at John」中的 John。

依存分析是理解句子中單詞之間關系的一種方法。盡管在句子「Jill laughed at John」中,Jill 和 John 都是名詞,但是 Jill 是發出 laughing 這個動作的主語,而 John 是承受這個動作的賓語。依存關系是一種更加精細的屬性,可以通過句子中單詞之間的關系來理解單詞。

單詞之間的這些關系可能變得特別復雜,這取決于句子結構。對句子做依存分析的結果是一個樹形數據結構,其中動詞是樹根。

讓我們來看一下「The quick brown fox jumps over the lazy do」這句話中的依存關系。

  1. nlp("The quick brown fox jumps over the lazy dog.") 
  2. spacy.displacy.render(doc, style='dep'options={'distance' : 140}, jupyter=True

 

依存關系也是一種分詞屬性,spaCy 有專門訪問不同分詞屬性的強大 API(https://spacy.io/api/token)。下面我們會打印出每個分詞的文本、它的依存關系及其父(頭)分詞文本。

  1. token_dependencies = ((token.text, token.dep_, token.head.text) for token in doc)  
  2. print(tabulate(token_dependencies, headers=['Token', 'Dependency Relation', 'Parent Token'])) 
  1. Token    Dependency Relation    Parent Token 
  2. -------  ---------------------  -------------- 
  3. The      det                    fox 
  4. quick    amod                   fox 
  5. brown    amod                   fox 
  6. fox      nsubj                  jumps 
  7. jumps    ROOT                   jumps 
  8. over     prep                   jumps 
  9. the      det                    dog 
  10. lazy     amod                   dog 
  11. dog      pobj                   over 
  12. .        punct                  jumps 

作為分析的先導,我們會關心任何一個具有 nobj 關系的分詞,該關系表明它們是句子中的賓語。這意味著,在上面的示例句子中,我們希望捕獲到的是單詞「fox」。

命名實體識別

***是命名實體識別。命名實體是句子中的專有名詞。計算機已經相當擅長分析句子中是否存在命名實體,也能夠區分它們屬于哪一類別。

spaCy 在文檔水平處理命名實體,因為實體的名字可以跨越多個分詞。使用 IOB

(https://spacy.io/usage/linguistic-features#section-named-entities)把單個分詞標記為實體的一部分,如實體的開始、內部或者外部。

在下面的代碼中,我們在文檔水平使用 doc.ents 打印出了所有的命名實體。然后,我們會輸出每個分詞,它們的 IOB 標注,以及它的實體類型(如果它是實體的一部分的話)。

我們要使用的句子示例是「Jill laughed at John Johnson」。

  1. doc = nlp("Jill laughed at John Johnson.") 
  2.  
  3. entity_types = ((ent.text, ent.label_) for ent in doc.ents) 
  4. print(tabulate(entity_types, headers=['Entity', 'Entity Type'])) 
  5. print() 
  6. token_entity_info = ((token.text, token.ent_iob_, token.ent_type_,) for token in doc) 
  7. print(tabulate(token_entity_info, headers=['Token', 'IOB Annotation', 'Entity Type'])) 
  1. Entity        Entity Type 
  2. ------------  ------------- 
  3. Jill          PERSON 
  4. John Johnson  PERSON 
  5.  
  6. Token    IOB Annotation    Entity Type 
  7. -------  ----------------  ------------- 
  8. Jill     B                 PERSON 
  9. laughed  O 
  10. at       O 
  11. John     B                 PERSON 
  12. Johnson  I                 PERSON 
  13. .        O 

實例:對《圣經》進行自然語言處理

上面提到的每個方法本身就很強大了,但如果將它們結合起來,遵循語言學的模式提取信息,就能發揮自然語言處理的真正力量。我們可以使用詞性標注、依存分析、實體命名識別的一部分來了解大量文本中的所有角色及其動作。因其文本長度和角色范圍之廣,《圣經》是一個很好的例子。

我們正在導入的數據每個《圣經》經文包含一個對象。經文被用作圣經部分的參考方案,通常包括一個或多個經文句子。我們會遍歷所有的經文,并提取其主題,確定它是不是一個人物,并提取這個人物所做的所有動作。

首先,讓我們從 GitHub 存儲庫中以 JSON 的形式加載圣經。然后,我們會從每段經文中抽取文本,通過 spaCy 發送文本進行依存分析和詞性標注,并存儲生成的文檔。

  1. import requests 
  2.  
  3. r = requests.get('https://github.com/tushortz/Bible/raw/master/json/kjv.json') 
  4. bible_json = [line['fields'] for line in r.json()] 
  5. print('Number of Verses:', len(bible_json)) 
  6.  
  7. text_generator = (line['text'] for line in bible_json) 
  8.  
  9. %time verse_docs = [doc for doc in nlp.pipe(text_generator, n_threads=-1)] 

我們已經用 3 分鐘多一點的時間將文本從 json 解析到了 verse_docs,大約每秒 160 個經文章節。作為參考,下面是 bible_json 前 3 行的內容。

  1. [{'book_id': 1, 
  2.   'chapter': 1, 
  3.   'comment': '', 
  4.   'text': 'In the beginning God created the heaven and the earth.', 
  5.   'verse': 1}, 
  6.  {'book_id': 1, 
  7.   'chapter': 1, 
  8.   'comment': '', 
  9.   'text': 'And the earth was without form, and void; and darkness was upon the face of the deep. And the Spirit of God moved upon the face of the waters.', 
  10.   'verse': 2}, 
  11.  {'book_id': 1, 
  12.   'chapter': 1, 
  13.   'comment': '', 
  14.   'text': 'And God said, Let there be light: and there was light.', 
  15.   'verse': 3}] 

使用分詞屬性

為了提取角色和動作,我們將遍歷一段經文中的所有分詞,并考慮 3 個因素:

  • 這個分詞是句子的主語嗎?(它的依存關系是不是 nsubj?)
  • 它的父分詞是不是動詞?(通常是這樣的,但是有時候 POS 標注和依存分析之間會存在沖突,我們會安全地使用它。此外,我并不是語言學家,所以這里還會有一些奇怪的案例。)
  • 一個分詞的命名實體是否為一個人物?我們不想提取任何不是人物的名詞。(為了簡便,我們僅僅會提取名字)

如果我們的分詞滿足以上 3 種條件,我們將會收集以下的屬性:

  • 名詞/實體分詞的文本。
  • 包含名詞和動詞的范圍。
  • 動詞。
  • 動詞出現在標準英語文本中的對數概率(使用對數的原因是這里的概率都很小)。
  • 經文數量。
  1. actors_and_actions = [] 
  2.  
  3. def token_is_subject_with_action(token): 
  4.     nsubj = token.dep_ == 'nsubj' 
  5.     head_verb = token.head.pos_ == 'VERB' 
  6.     person = token.ent_type_ == 'PERSON' 
  7.     return nsubj and head_verb and person 
  8.  
  9. for verse, doc in enumerate(verse_docs): 
  10.     for token in doc: 
  11.         if token_is_subject_with_action(token): 
  12.             span = doc[token.head.left_edge.i:token.head.right_edge.i+1] 
  13.             data = dict(name=token.orth_, 
  14.                         spanspan=span.text, 
  15.                         verb=token.head.lower_, 
  16.                         log_prob=token.head.prob, 
  17.                         verseverse=verse) 
  18.             actors_and_actions.append(data) 
  19.  
  20. print(len(actors_and_actions)) 

分析

我們已經獲得了提取到的所有角色及其動作的列表,現在我們做以下兩件事來快速分析:

  • 找出每個角色最常做出的動作(動詞)
  • 找出每個人最獨特的動作。我們將其確定為英文文本中出現概率***的動詞。
  1. import pandas as pd 
  2.  
  3. action_df = pd.DataFrame(actors_and_actions) 
  4.  
  5. print('Unique Names:', action_df['name'].nunique()) 
  6.  
  7. most_common = (action_df 
  8.     .groupby(['name', 'verb']) 
  9.     .size() 
  10.     .groupby(level=0group_keys=False
  11.     .nlargest(1) 
  12.     .rename('Count') 
  13.     .reset_index(level=1
  14.     .rename(columns={ 
  15.         'verb': 'Most Common' 
  16.     }) 
  17.  
  18. # exclude log prob < -20, those indicate absence in the model vocabulary 
  19. most_unique = (action_df[action_df['log_prob'] > -20] 
  20.     .groupby(['name', 'verb'])['log_prob'] 
  21.     .min() 
  22.     .groupby(level=0group_keys=False
  23.     .nsmallest(1) 
  24.     .rename('Log Prob.') 
  25.     .reset_index(level = 1
  26.     .rename(columns={ 
  27.         'verb': 'Most Unique' 
  28.     }) 
  29.  
  30. # SO groupby credit 
  31. # https: //stackoverflow.com/questions/27842613/pandas-groupby-sort-within-groups 

讓我們看一下前 15 個角色的動詞數及其最常用的動詞。

  1. most_common.sort_values('Count', ascending=False).head(15) 

貌似《圣經》里面很多人都說了很多話,而所羅門簡直是個例外,他做了很多事情。

那么從出現概率來看,最獨特的動詞是什么呢?(我們將在此處刪去重復項,以便每個單詞都是唯一的)

  1. (most_unique 
  2.  .drop_duplicates('Most Unique') 
  3.  .sort_values('Log Prob.', ascending=True
  4.  .head(15) 

看來我們要學習一些有趣的新詞匯了!我最喜歡的是 discomfited 和 ravin。

可視化

接下來可視化我們的結果。我們將選取行動最多、情節最多的前 50 個名字,這些行動發生在整篇文章中。我們還會在《圣經》每本書的開頭畫垂直線。姓名將按***出現的順序排序。

這可以讓我們知道圣經中每個角色最活躍的時候。

我們將添加一些分隔符來分隔《圣經》的不同部分。我自己并非研究《圣經》學者,所以我參考了如下分隔法

(https://www.thoughtco.com/how-the-books-of-the-bible-are-organized-363393):

《舊約》:

  • 摩西五經或律法書:《創世紀》、《出埃及記》、《利未記》、《民數記》和《申命記》。
  • 舊約歷史書:《約書亞記》、《士師記》、《路得記》、《撒慕耳記》上下、《列王記》上下、《歷代志》上下、《尼希米記》、《以斯拉記》、《以斯帖記》
  • 詩歌智慧書:《約伯記》、《詩篇》、《箴言》、《傳道書》和《雅歌》;
  • 大先知書:《以賽亞書》、《耶利米書》、《耶利米哀歌》、《以西結書》、《但以理書》、《何西阿書》、《約珥書》、《阿摩司書》、《俄巴底亞書》、《約拿書》、《彌迦書》、《那鴻書》、《哈巴谷書》、《西番雅書》、《哈該書》、《撒迦利亞書》、《瑪拉基書》。

《新約》:

  • 福音書:《馬太福音》、《馬可福音》、《路加福音》、《約翰福音》
  • 新約歷史書:《使徒行傳》
  • 保羅書信:《羅馬書》、《哥林多前書》、《哥林多后書》、《加拉太書》、《以弗所書》、《腓立比書》、《歌羅西書》《帖撒羅尼迦前書》、《帖撒羅尼迦后書》、《提摩太前書》、《提摩太后書》、《提多書》、《腓利門書》、《希伯來書》、《雅各書》、《彼得前書》、《彼得后書》、《約翰壹書》、《約翰貳書》、《約翰叁書》和《猶大書》
  • 語言/啟示錄:《啟示錄》

此外,我們還會用一條紅色的標志線分割《舊約》和《新約》。

  1. import seaborn as sns 
  2. import matplotlib.pyplot as plt 
  3. %matplotlib inline 
  4. sns.set(context='notebook'style='dark'
  5.  
  6. most_frequent_actors = list(action_df['name'].value_counts().index[:50]) 
  7. top_actors_df = action_df[action_df['name'].isin(most_frequent_actors)].copy() 
  8. book_locations = (pd.DataFrame(bible_json) 
  9.                   .reset_index() 
  10.                   .groupby('book_id')['index'] 
  11.                   .min() 
  12.                   .to_dict() 
  13.                  ) 
  14.  
  15. fig, ax = plt.subplots(figsize=(8,12), dpi=144*2) 
  16. sns.stripplot(x='verse'y='name',  
  17.               data=top_actors_dfaxax=ax, 
  18.               color='xkcd:cerulean'
  19.               size=3alpha=0.25, jitter=0.25) 
  20.  
  21. sns.despine(bottom=Trueleft=True
  22.  
  23. for book, verse_num in book_locations.items(): 
  24.     ax.axvline(verse_num, alpha=1lw=0.5, color='w'
  25.  
  26. divisions = [1, 6, 18, 23, 40, 44, 45, 65] 
  27. for div in divisions: 
  28.     ax.axvline(book_locations[div], alpha=0.5, lw=1.5, color='grey'
  29.  
  30. ax.axvline(book_locations[40], alpha=0.5, lw=1.75, color='xkcd:coral'
  31.  
  32. ax.set_xlim(left=-150) 
  33.  
  34. ax.set_title("Where Actions Occur in the Bible\nCharacters Sorted by First Appearance"); 

可視化分析

  • 在《圣經》開頭的《創世紀》中,上帝(God)被密集地提到。
  • 在《新約》中,主(Lord)不再作為一個實體使用。
  • 我們***次看到保羅是在《使徒行傳》中被提及。(福音書后的***本書)
  • 在《詩歌智慧書》里沒有提到很多實體。
  • 耶穌的生活在《福音書》中被密集地記錄了下來。
  • 彼拉多出現在《福音書》的末尾。

這種方法的問題

  • 實體識別無法區分兩個名字相同的人掃羅王(《舊約》)直到《使徒行傳》的中途,保羅(使徒)一直被稱作掃羅
  • 有些名詞不是實際的實體(如 Ye)
  • 有些名詞可以使用更多的語境和全名(如 Pilate)

下一步

一如既往,有辦法擴展和改進這一分析。我在寫這篇文章的時候想到了以下幾點:

  • 使用依存關系來尋找實體之間的關系,通過網絡分析的方法來理解角色。
  • 改進實體提取,以捕獲單個名稱之外的實體。
  • 對非人物實體及其語言關系進行分析——《圣經》中提到了哪些位置?

寫在結尾

僅僅通過使用文本中分詞級別的屬性我們就可以做一些很有趣的分析!在本文中,我們介紹了 3 種主要的 NLP 工具:

  • 詞性標注——這個詞是什么類型?
  • 依存分析——該詞和句子中的其他詞是什么關系?
  • 命名實體識別——這是一個專有名詞嗎?

我們結合這三個工具來發現誰是《圣經》中的主要角色,以及他們采取的動作。并且我們還繪制了這些角色和動作的圖表,以了解每個角色的主要動作發生在何處。

原文鏈接:https://pmbaumgartner.github.io/blog/holy-nlp/

【本文是51CTO專欄機構“機器之心”的原創文章,微信公眾號“機器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2025-04-01 00:18:55

2021-10-10 12:29:27

機器人AI人工智能

2020-03-23 08:15:43

JavaScriptError對象函數

2024-11-26 07:47:41

2023-02-02 14:24:08

物聯網數據分析云平臺

2019-04-30 08:25:35

2023-03-07 10:32:34

Go語言結構體

2023-10-16 23:12:02

Redis數據結構

2020-03-23 08:31:13

網絡時延時延網絡

2021-03-11 07:26:52

垃圾回收器單線程

2010-04-16 14:51:05

網絡流量

2023-04-26 10:06:08

RocketMQ屬性Consumer

2020-08-06 11:05:30

函數調用寄存器語言

2016-11-10 13:00:32

網絡傳輸協議pythonhttp

2025-10-27 01:11:00

2019-11-01 11:12:50

PythonExcelWindows

2022-02-15 20:08:41

JDKJavaWindows

2013-05-20 10:14:42

軟件工具項目工具開發工具

2022-08-02 06:55:35

移動設備Android

2022-06-30 13:41:44

SQL 語句group by
點贊
收藏

51CTO技術棧公眾號

黄色aaa毛片| 日韩黄色在线视频| av在线播放一区二区| 一片黄亚洲嫩模| 免费亚洲一区二区| 一卡二卡在线观看| 91久久亚洲| 中文字幕在线亚洲| 在线精品视频播放| 久久av日韩| 亚欧色一区w666天堂| 亚洲国产欧洲综合997久久| wwwav网站| 日韩电影免费一区| 欧美精品激情在线| 美女视频久久久| 日韩福利视频一区| 日韩一区二区中文字幕| 国产视频一区二区视频| 免费电影网站在线视频观看福利| 中文字幕免费不卡| 老牛影视免费一区二区| 午夜精品久久久久久久99热黄桃| 日本伊人午夜精品| 8050国产精品久久久久久| 国产传媒免费在线观看| 国产传媒欧美日韩成人精品大片| 亚洲国产精品人久久电影| av在线网址导航| 樱桃视频成人在线观看| 亚洲二区在线视频| 日韩中文在线字幕| 欧美激情办公室videoshd| 久久久综合激的五月天| 国产精品日韩欧美一区二区三区 | 91国产免费看| av日韩一区二区三区| 中文字幕伦理免费在线视频| 欧美激情一区二区三区四区| 欧美国产一二三区| 四虎永久在线观看| 国产 欧美在线| 亚洲一区美女视频在线观看免费| 亚洲影视一区二区| 奇米色一区二区三区四区| 日韩av电影国产| 特级做a爱片免费69| 亚洲激情女人| 97精品国产97久久久久久免费| 久久精品99久久久久久| 欧美fxxxxxx另类| 欧美高清在线视频观看不卡| 成人在线观看免费完整| 91精品啪在线观看国产18| 日韩午夜在线视频| 欧美性生给视频| 一本精品一区二区三区| 久久夜色精品国产| 九九热精品在线观看| 午夜精品国产| 97在线视频精品| 午夜影院免费在线观看| 日韩一区欧美二区| 欧美一区二区三区……| 中文字幕xxxx| 美腿丝袜亚洲三区| 成人高清视频观看www| 国产精品无码白浆高潮| 国产一区二区三区在线观看免费视频 | 激情图片小说一区| 成人做爰www免费看视频网站| 国产精选久久久| 国产成人午夜精品影院观看视频 | 亚洲女则毛耸耸bbw| 一区二区亚洲视频| 日韩精品高清在线观看| 国产又粗又猛又爽又黄av | 97超碰在线人人| 国产污视频在线播放| 色香色香欲天天天影视综合网| 欧美精品一区二区三区免费播放| 亚洲a∨精品一区二区三区导航| 欧美日韩国产精品自在自线| 精品国产午夜福利在线观看| 激情小说亚洲色图| 国产一区二区三区18| 日韩国产第一页| 99日韩精品| 国产精品一区二区在线| www.蜜臀av.com| 久久品道一品道久久精品| 亚洲日本理论电影| 国产乱码精品一区二三赶尸艳谈| 91国产视频在线观看| 男人添女人荫蒂国产| 亚洲视频分类| 欧美成人午夜剧场免费观看| 久热这里只有精品6| 精品在线一区二区三区| 国产精品久久久久av福利动漫| 国产永久av在线| 一区二区在线观看视频| 欧美xxxxx在线视频| 亚洲一区二区电影| 日韩在线观看视频免费| 国产视频91在线| 激情综合网av| 欧美日韩一区在线播放| 色av手机在线| 欧美日本国产一区| 亚洲做受高潮无遮挡| 欧美va天堂| 成人精品在线视频| 国产1区2区3区在线| 一区二区三区国产| 亚洲综合欧美激情| 国产欧美日韩在线观看视频| 亚州欧美日韩中文视频| 国产精品热久久| 国产免费久久精品| 大肉大捧一进一出好爽视频| 欧美1区2区3| 自拍偷拍亚洲在线| 欧美黄色一级大片| 91麻豆福利精品推荐| 国产欧美日韩小视频| 亚洲天堂网站| 中文字幕亚洲一区在线观看 | 亚洲波多野结衣| 久久天天综合| 精品国产综合久久| 91黄页在线观看| 欧美变态凌虐bdsm| 一区视频免费观看| 狠狠色狠狠色综合日日91app| 日韩精品在在线一区二区中文| 俺来俺也去www色在线观看| 91麻豆精品国产91| 日韩三级久久久| 精品在线一区二区三区| 亚洲一一在线| jizz久久久久久| 中文字幕免费国产精品| 涩涩视频在线观看| 亚洲国产精品精华液ab| av在线无限看| 国产一区二区三区91| 国产成人精品日本亚洲专区61| 神马精品久久| 日本韩国精品在线| 中文字幕第24页| 麻豆精品一区二区av白丝在线| 日本一区视频在线播放| 欧美日韩成人影院| 中文字幕亚洲字幕| 国产精品视频在线观看免费| 亚洲精品视频在线观看网站| 免费观看黄网站| 亚洲视频日本| 精品欧美日韩在线| 久久久一本精品| 中文字幕视频一区二区在线有码| 中文天堂在线视频| 自拍av一区二区三区| 操人视频免费看| 伊人影院久久| 欧美精品二区三区四区免费看视频| 韩国美女久久| 久久精品国产69国产精品亚洲| 国产精品福利电影| 亚洲图片欧美色图| 久久精品国产亚洲AV熟女| 青青草伊人久久| 国产av不卡一区二区| 精品嫩草影院| 国产91精品最新在线播放| youjizz在线播放| 9191久久久久久久久久久| 国产香蕉在线视频| 国产拍欧美日韩视频二区| 亚洲理论中文字幕| 亚洲欧洲综合| 亚洲一区二区三区欧美| 98视频精品全部国产| 69**夜色精品国产69乱| 香蕉视频国产在线观看| 欧美精品一区二区在线观看| 国产真人无遮挡作爱免费视频| 日韩美女视频19| 日韩av无码一区二区三区不卡| 日本美女一区二区三区| 天天做天天躁天天躁| 欧洲专线二区三区| 99久久综合狠狠综合久久止| 向日葵视频成人app网址| 久久91亚洲精品中文字幕奶水| 日本高清中文字幕二区在线| 欧美精选午夜久久久乱码6080| 久久艹精品视频| 国产精品色眯眯| 亚洲熟女乱综合一区二区三区 | av在线播放网址| 免费在线观看一区二区三区| 福利视频一二区| 羞羞色午夜精品一区二区三区| 九九九九精品九九九九| 国产精一区二区| 日韩美女中文字幕| 免费电影视频在线看| 日韩中文理论片| 青青青草网站免费视频在线观看| 欧美一区日韩一区| 瑟瑟视频在线免费观看| 精品久久久久久久久久久| 538精品在线视频| 国产欧美中文在线| 五月婷婷综合在线观看| 国产91精品一区二区麻豆亚洲| 国产无遮挡猛进猛出免费软件| 亚洲一级在线| 成人免费a级片| 影视一区二区| 在线观看日韩羞羞视频| 欧美精品系列| 精品一区二区视频| 国偷自产av一区二区三区| 91香蕉亚洲精品| 欧美激情啪啪| 国产精品一二三在线| 亚洲一区二区三区四区| 欧美做受高潮1| 三级在线看中文字幕完整版| 国内精品美女av在线播放| 欧美性受ⅹ╳╳╳黑人a性爽| 久久色在线播放| 欧美极品另类| 久久香蕉国产线看观看av| 美女国产在线| 久久成人国产精品| 成人看av片| 欧美成人一二三| 91麻豆免费在线视频| 不卡av电影院| 日本动漫理论片在线观看网站| 欧美日本亚洲视频| 大黄网站在线观看| 国内自拍欧美激情| 亚洲性色av| 人人澡人人澡人人看欧美| 伊人久久av| 国产精品福利网站| 国产毛片精品久久| 国产主播在线一区| 精品三级久久久| 国产精品伊人日日| 欧美一区二区三区红桃小说| 久久五月天婷婷| 国产精品亚洲片在线播放| 日韩精品久久久免费观看 | 国产农村妇女精品| 国精产品一区一区| 亚洲婷婷综合色高清在线| 欧美成人黄色网| 亚洲va欧美va国产va天堂影院| 日本熟妇乱子伦xxxx| 欧美午夜激情视频| 中文字幕免费高清网站| 欧美三级电影一区| h狠狠躁死你h高h| 亚洲第一免费网站| 国产人成在线视频| www.日韩不卡电影av| 影音先锋在线视频| 538国产精品视频一区二区| 国产一区二区三区影视| 91亚洲国产成人精品性色| 亚洲免费一区三区| 欧美黑人xxxxx| 99视频精品全部免费在线视频| 激情图片qvod| 亚洲欧美日韩视频二区| 伊人色在线视频| 99re热这里只有精品视频| 国产视频三区四区| 亚洲欧美另类小说视频| 51国产偷自视频区视频| 欧美亚州韩日在线看免费版国语版| 国产精品无码久久av| 亚洲精品视频免费| а√天堂官网中文在线| 555www成人网| 久久伦理中文字幕| 欧美一区2区三区4区公司二百| 欧美成人久久| 久久久久久久片| 成人的网站免费观看| 粉嫩精品久久99综合一区| 亚洲国产精品视频| 在线免费观看一区二区| 亚洲激情电影中文字幕| 黄色免费在线观看网站| 热久久免费国产视频| 一区二区三区免费在线看| 亚洲成色最大综合在线| 最新日韩在线| 黑人无套内谢中国美女| 国产精品污www在线观看| 亚洲视频免费播放| 日韩欧美国产电影| 三区四区电影在线观看| 欧美在线视频观看免费网站| 玖玖精品一区| 一区二区三区国产福利| 久久先锋资源| 醉酒壮男gay强迫野外xx| 一区二区免费视频| 国产精品丝袜黑色高跟鞋| 在线观看欧美日韩| 日韩影片中文字幕| 久久久精品动漫| 影音先锋久久精品| 下面一进一出好爽视频| 国产精品久久久久天堂| 中文字幕免费视频观看| 日韩精品在线免费播放| 成年男女免费视频网站不卡| 亚洲淫片在线视频| 外国成人激情视频| 中文字幕在线综合| 日本一区二区综合亚洲| av黄色在线看| 日韩av网站电影| freexxx性亚洲精品| 国产一区在线免费观看| 在线精品在线| 在线免费看黄色片| 亚洲成av人片一区二区三区| 亚洲第一页综合| 久久久久久国产精品三级玉女聊斋| 国产亚洲久久| 欧美大片免费播放| 国产高清精品网站| 久久久91视频| 精品剧情在线观看| 国产三级伦理在线| 国产精品日韩二区| 亚洲一区二区网站| 老司机福利av| 欧美亚洲国产一卡| 日本美女高清在线观看免费| 国产中文字幕91| 欧美1区2区| 亚洲精品第二页| 欧美日韩在线免费| 国产人成在线视频| 91九色视频在线| 国内精品久久久久久久97牛牛 | 性人久久久久| 一级黄色香蕉视频| 国产精品久久久久一区二区三区共| 中文字幕视频一区二区| 久久久精品久久久久| 北条麻妃在线一区二区免费播放 | 国内精品伊人久久久久av一坑| 欧美成人黄色网| 亚洲精品短视频| 日韩高清中文字幕一区二区| 亚洲午夜在线观看| 国产精品一区二区久激情瑜伽| 亚州国产精品视频| 国产一区二区成人| 日韩精品中文字幕一区二区| 成人性免费视频| 欧美激情一区三区| www.日韩在线观看| 国产www精品| 欧美在线首页| 成人h动漫精品一区| 欧美日韩亚洲丝袜制服| 三级资源在线| 色就是色欧美| 国产v日产∨综合v精品视频| 欧美在线观看不卡| 久久久国产精品一区| 农村少妇一区二区三区四区五区 | 日韩av懂色| 日韩av中文字幕第一页| 欧美极品少妇xxxxⅹ高跟鞋 | 久久精品视频导航| 女仆av观看一区| 色男人天堂av| 色狠狠一区二区| 草美女在线观看| 亚洲黄色成人久久久| 成人精品视频一区二区三区 | 国产女主播av| 久久久亚洲高清| 日韩一区二区三区在线观看视频 | 一级aaaa毛片| 欧美洲成人男女午夜视频|