精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Python中七種主要關鍵詞提取算法的基準測試

開發 后端 算法
我一直在尋找有效關鍵字提取任務算法。 目標是找到一種算法,能夠以有效的方式提取關鍵字,并且能夠平衡提取質量和執行時間,因為我的數據語料庫迅速增加已經達到了數百萬行。

我一直在尋找有效關鍵字提取任務算法。 目標是找到一種算法,能夠以有效的方式提取關鍵字,并且能夠平衡提取質量和執行時間,因為我的數據語料庫迅速增加已經達到了數百萬行。 我對于算法一個主要的要求是提取關鍵字本身總是要有意義的,即使脫離了上下文的語境也能夠表達一定的含義。

[[437010]]

本篇文章使用 2000 個文檔的語料庫對幾種著名的關鍵字提取算法進行測試和試驗。

使用的庫列表

我使用了以下python庫進行研究

NLTK,以幫助我在預處理階段和一些輔助函數

  • RAKE
  • YAKE
  • PKE
  • KeyBERT
  • Spacy

Pandas 和Matplotlib還有其他通用庫

實驗流程

基準測試的工作方式如下

 

 

我們將首先導入包含我們的文本數據的數據集。 然后,我們將為每個算法創建提取邏輯的單獨函數

algorithm_name(str: text) → [keyword1, keyword2, ..., keywordn]

然后,我們創建的一個函數用于提取整個語料庫的關鍵詞。

extract_keywords_from_corpus(algorithm, corpus) → {algorithm, corpus_keywords, elapsed_time}

下一步,使用Spacy幫助我們定義一個匹配器對象,用來判斷關鍵字是否對我們的任務有意義,該對象將返回 true 或 false。

最后,我們會將所有內容打包到一個輸出最終報告的函數中。

數據集

我使用的是來自互聯網的小文本數數據集。這是一個樣本

 

  1. ['To follow up from my previous questions. . Here is the result!\n'
  2. 'European mead competitions?\nI’d love some feedback on my mead, but entering the Mazer Cup isn’t an option for me, since shipping alcohol to the USA from Europe is illegal. (I know I probably wouldn’t get caught/prosecuted, but any kind of official record of an issue could screw up my upcoming citizenship application and I’m not willing to risk that).\n\nAre there any European mead comps out there? Or at least large beer comps that accept entries in the mead categories and are likely to have experienced mead judges?''Orange Rosemary Booch\n''Well folks, finally happened. Went on vacation and came home to mold.\n''I’m opening a gelato shop in London on Friday so we’ve been up non-stop practicing flavors - here’s one of our most recent attempts!\n'"Does anyone have resources for creating shelf stable hot sauce? Ferment and then water or pressure can?\nI have dozens of fresh peppers I want to use to make hot sauce, but the eventual goal is to customize a recipe and send it to my buddies across the States. I believe canning would be the best way to do this, but I'm not finding a lot of details on it. Any advice?", 'what is the practical difference between a wine filter and a water filter?\nwondering if you could use either', 'What is the best custard base?\nDoes someone have a recipe that tastes similar to Culver’s frozen custard?', 'Mold?\n' 

 

大部分是與食物相關的。我們將使用2000個文檔的樣本來測試我們的算法。

我們現在還沒有對文本進行預處理,因為有一些算法的結果是基于stopwords和標點符號的。

算法

讓我們定義關鍵字提取函數。

 

  1. # initiate BERT outside of functions 
  2. bert = KeyBERT() 
  3. # 1. RAKE 
  4. def rake_extractor(text): 
  5. ""
  6. Uses Rake to extract the top 5 keywords from a text 
  7. Arguments: text (str) 
  8. Returns: list of keywords (list) 
  9. ""
  10. r = Rake() 
  11. r.extract_keywords_from_text(text) 
  12. return r.get_ranked_phrases()[:5] 
  13. # 2. YAKE 
  14. def yake_extractor(text): 
  15. ""
  16. Uses YAKE to extract the top 5 keywords from a text 
  17. Arguments: text (str) 
  18. Returns: list of keywords (list) 
  19. ""
  20. keywords = yake.KeywordExtractor(lan="en", n=3, windowsSize=3, top=5).extract_keywords(text) 
  21. results = [] 
  22. for scored_keywords in keywords: 
  23. for keyword in scored_keywords: 
  24. if isinstance(keyword, str): 
  25. results.append(keyword)  
  26. return results  
  27. # 3. PositionRank 
  28. def position_rank_extractor(text): 
  29. ""
  30. Uses PositionRank to extract the top 5 keywords from a text 
  31. Arguments: text (str) 
  32. Returns: list of keywords (list) 
  33. ""
  34. # define the valid Part-of-Speeches to occur in the graph 
  35. pos = {'NOUN''PROPN''ADJ''ADV'
  36. extractor = pke.unsupervised.PositionRank() 
  37. extractor.load_document(text, language='en'
  38. extractor.candidate_selection(pos=pos, maximum_word_number=5) 
  39. # 4. weight the candidates using the sum of their word's scores that are 
  40. # computed using random walk biaised with the position of the words 
  41. in the document. In the graph, nodes are words (nouns and 
  42. # adjectives only) that are connected if they occur in a window of 
  43. # 3 words. 
  44. extractor.candidate_weighting(window=3, pos=pos) 
  45. # 5. get the 5-highest scored candidates as keyphrases 
  46. keyphrases = extractor.get_n_best(n=5) 
  47. results = [] 
  48. for scored_keywords in keyphrases: 
  49. for keyword in scored_keywords: 
  50. if isinstance(keyword, str): 
  51. results.append(keyword)  
  52. return results  
  53. # 4. SingleRank 
  54. def single_rank_extractor(text): 
  55. ""
  56. Uses SingleRank to extract the top 5 keywords from a text 
  57. Arguments: text (str) 
  58. Returns: list of keywords (list) 
  59. ""
  60. pos = {'NOUN''PROPN''ADJ''ADV'
  61. extractor = pke.unsupervised.SingleRank() 
  62. extractor.load_document(text, language='en'
  63. extractor.candidate_selection(pos=pos) 
  64. extractor.candidate_weighting(window=3, pos=pos) 
  65. keyphrases = extractor.get_n_best(n=5) 
  66. results = [] 
  67. for scored_keywords in keyphrases: 
  68. for keyword in scored_keywords: 
  69. if isinstance(keyword, str): 
  70. results.append(keyword)  
  71. return results  
  72. # 5. MultipartiteRank 
  73. def multipartite_rank_extractor(text): 
  74. ""
  75. Uses MultipartiteRank to extract the top 5 keywords from a text 
  76. Arguments: text (str) 
  77. Returns: list of keywords (list) 
  78. ""
  79. extractor = pke.unsupervised.MultipartiteRank() 
  80. extractor.load_document(text, language='en'
  81. pos = {'NOUN''PROPN''ADJ''ADV'
  82. extractor.candidate_selection(pos=pos) 
  83. # 4. build the Multipartite graph and rank candidates using random walk, 
  84. # alpha controls the weight adjustment mechanism, see TopicRank for 
  85. # threshold/method parameters. 
  86. extractor.candidate_weighting(alpha=1.1, threshold=0.74, method='average'
  87. keyphrases = extractor.get_n_best(n=5) 
  88. results = [] 
  89. for scored_keywords in keyphrases: 
  90. for keyword in scored_keywords: 
  91. if isinstance(keyword, str): 
  92. results.append(keyword)  
  93. return results 
  94. # 6. TopicRank 
  95. def topic_rank_extractor(text): 
  96. ""
  97. Uses TopicRank to extract the top 5 keywords from a text 
  98. Arguments: text (str) 
  99. Returns: list of keywords (list) 
  100. ""
  101. extractor = pke.unsupervised.TopicRank() 
  102. extractor.load_document(text, language='en'
  103. pos = {'NOUN''PROPN''ADJ''ADV'
  104. extractor.candidate_selection(pos=pos) 
  105. extractor.candidate_weighting() 
  106. keyphrases = extractor.get_n_best(n=5) 
  107. results = [] 
  108. for scored_keywords in keyphrases: 
  109. for keyword in scored_keywords: 
  110. if isinstance(keyword, str): 
  111. results.append(keyword)  
  112. return results 
  113. # 7. KeyBERT 
  114. def keybert_extractor(text): 
  115. ""
  116. Uses KeyBERT to extract the top 5 keywords from a text 
  117. Arguments: text (str) 
  118. Returns: list of keywords (list) 
  119. ""
  120. keywords = bert.extract_keywords(text, keyphrase_ngram_range=(3, 5), stop_words="english", top_n=5) 
  121. results = [] 
  122. for scored_keywords in keywords: 
  123. for keyword in scored_keywords: 
  124. if isinstance(keyword, str): 
  125. results.append(keyword) 
  126. return results 

 

每個提取器將文本作為參數輸入并返回一個關鍵字列表。對于使用來講非常簡單。

注意:由于某些原因,我不能在函數之外初始化所有提取器對象。每當我這樣做時,TopicRank和MultiPartiteRank都會拋出錯誤。就性能而言,這并不完美,但基準測試仍然可以完成。

 

Python中7種主要關鍵詞提取算法的基準測試

 

我們已經通過傳遞 pos = {'NOUN', 'PROPN', 'ADJ', 'ADV'} 來限制一些可接受的語法模式——這與 Spacy 一起將確保幾乎所有的關鍵字都是從人類語言視角來選擇的。 我們還希望關鍵字包含三個單詞,只是為了有更具體的關鍵字并避免過于籠統。

從整個語料庫中提取關鍵字

現在讓我們定義一個函數,該函數將在輸出一些信息的同時將單個提取器應用于整個語料庫。

 

  1. def extract_keywords_from_corpus(extractor, corpus): 
  2. """This function uses an extractor to retrieve keywords from a list of documents""" 
  3. extractor_name = extractor.__name__.replace("_extractor"""
  4. logging.info(f"Starting keyword extraction with {extractor_name}"
  5. corpus_kws = {} 
  6. start = time.time() 
  7. # logging.info(f"Timer initiated.") <-- uncomment this if you want to output start of timer 
  8. for idx, text in tqdm(enumerate(corpus), desc="Extracting keywords from corpus..."): 
  9. corpus_kws[idx] = extractor(text) 
  10. end = time.time() 
  11. # logging.info(f"Timer stopped.") <-- uncomment this if you want to output end of timer 
  12. elapsed = time.strftime("%H:%M:%S"time.gmtime(end - start)) 
  13. logging.info(f"Time elapsed: {elapsed}"
  14.  
  15. return {"algorithm": extractor.__name__,  
  16. "corpus_kws": corpus_kws,  
  17. "elapsed_time": elapsed} 

 

這個函數所做的就是將傳入的提取器數據和一系列有用的信息組合成一個字典(比如執行任務花費了多少時間)來方便我們后續生成報告。

語法匹配函數

這個函數確保提取器返回的關鍵字始終(幾乎?)意義。 例如,

 

Python中7種主要關鍵詞提取算法的基準測試

 

我們可以清楚地了解到,前三個關鍵字可以獨立存在,它們完全是有意義的。我們不需要更多信息來理解關鍵詞的含義,但是第四個就毫無任何意義,所以需要盡量避免這種情況。

Spacy 與 Matcher 對象可以幫助我們做到這一點。 我們將定義一個匹配函數,它接受一個關鍵字,如果定義的模式匹配,則返回 True 或 False。

 

  1. def match(keyword): 
  2. """This function checks if a list of keywords match a certain POS pattern""" 
  3. patterns = [ 
  4. [{'POS''PROPN'}, {'POS''VERB'}, {'POS''VERB'}], 
  5. [{'POS''NOUN'}, {'POS''VERB'}, {'POS''NOUN'}], 
  6. [{'POS''VERB'}, {'POS''NOUN'}], 
  7. [{'POS''ADJ'}, {'POS''ADJ'}, {'POS''NOUN'}],  
  8. [{'POS''NOUN'}, {'POS''VERB'}], 
  9. [{'POS''PROPN'}, {'POS''PROPN'}, {'POS''PROPN'}], 
  10. [{'POS''PROPN'}, {'POS''PROPN'}, {'POS''NOUN'}], 
  11. [{'POS''ADJ'}, {'POS''NOUN'}], 
  12. [{'POS''ADJ'}, {'POS''NOUN'}, {'POS''NOUN'}, {'POS''NOUN'}], 
  13. [{'POS''PROPN'}, {'POS''PROPN'}, {'POS''PROPN'}, {'POS''ADV'}, {'POS''PROPN'}], 
  14. [{'POS''PROPN'}, {'POS''PROPN'}, {'POS''PROPN'}, {'POS''VERB'}], 
  15. [{'POS''PROPN'}, {'POS''PROPN'}], 
  16. [{'POS''NOUN'}, {'POS''NOUN'}], 
  17. [{'POS''ADJ'}, {'POS''PROPN'}], 
  18. [{'POS''PROPN'}, {'POS''ADP'}, {'POS''PROPN'}], 
  19. [{'POS''PROPN'}, {'POS''ADJ'}, {'POS''NOUN'}], 
  20. [{'POS''PROPN'}, {'POS''VERB'}, {'POS''NOUN'}], 
  21. [{'POS''NOUN'}, {'POS''ADP'}, {'POS''NOUN'}], 
  22. [{'POS''PROPN'}, {'POS''NOUN'}, {'POS''PROPN'}], 
  23. [{'POS''VERB'}, {'POS''ADV'}], 
  24. [{'POS''PROPN'}, {'POS''NOUN'}], 
  25. matcher = Matcher(nlp.vocab) 
  26. matcher.add("pos-matcher", patterns) 
  27. create spacy object 
  28. doc = nlp(keyword) 
  29. # iterate through the matches 
  30. matches = matcher(doc) 
  31. # if matches is not empty, it means that it has found at least a match 
  32. if len(matches) > 0: 
  33. return True 
  34. return False 

 

基準測試函數

我們馬上就要完成了。 這是啟動腳本和收集結果之前的最后一步。

我們將定義一個基準測試函數,它接收我們的語料庫和一個布爾值,用于對我們的數據進行打亂。 對于每個提取器,它調用

extract_keywords_from_corpus 函數返回一個包含該提取器結果的字典。 我們將該值存儲在列表中。

對于列表中的每個算法,我們計算

  • 平均提取關鍵詞數
  • 匹配關鍵字的平均數量
  • 計算一個分數表示找到的平均匹配數除以執行操作所花費的時間

我們將所有數據存儲在 Pandas DataFrame 中,然后將其導出為 .csv。

 

  1. def get_sec(time_str): 
  2. """Get seconds from time.""" 
  3. h, m, s = time_str.split(':'
  4. return int(h) * 3600 + int(m) * 60 + int(s) 
  5. def benchmark(corpus, shuffle=True): 
  6. """This function runs the benchmark for the keyword extraction algorithms""" 
  7. logging.info("Starting benchmark...\n"
  8.  
  9. # Shuffle the corpus 
  10. if shuffle: 
  11. random.shuffle(corpus) 
  12. # extract keywords from corpus 
  13. results = [] 
  14. extractors = [ 
  15. rake_extractor,  
  16. yake_extractor,  
  17. topic_rank_extractor,  
  18. position_rank_extractor, 
  19. single_rank_extractor, 
  20. multipartite_rank_extractor, 
  21. keybert_extractor, 
  22. for extractor in extractors: 
  23. result = extract_keywords_from_corpus(extractor, corpus) 
  24. results.append(result) 
  25. # compute average number of extracted keywords 
  26. for result in results: 
  27. len_of_kw_list = [] 
  28. for kws in result["corpus_kws"].values(): 
  29. len_of_kw_list.append(len(kws)) 
  30. result["avg_keywords_per_document"] = np.mean(len_of_kw_list) 
  31. # match keywords 
  32. for result in results: 
  33. for idx, kws in result["corpus_kws"].items(): 
  34. match_results = [] 
  35. for kw in kws: 
  36. match_results.append(match(kw)) 
  37. result["corpus_kws"][idx] = match_results 
  38. # compute average number of matched keywords 
  39. for result in results: 
  40. len_of_matching_kws_list = [] 
  41. for idx, kws in result["corpus_kws"].items(): 
  42. len_of_matching_kws_list.append(len([kw for kw in kws if kw])) 
  43. result["avg_matched_keywords_per_document"] = np.mean(len_of_matching_kws_list) 
  44. # compute average percentange of matching keywords, round 2 decimals 
  45. result["avg_percentage_matched_keywords"] = round(result["avg_matched_keywords_per_document"] / result["avg_keywords_per_document"], 2) 
  46.  
  47. create score based on the avg percentage of matched keywords divided by time elapsed (in seconds) 
  48. for result in results: 
  49. elapsed_seconds = get_sec(result["elapsed_time"]) + 0.1 
  50. # weigh the score based on the time elapsed 
  51. result["performance_score"] = round(result["avg_matched_keywords_per_document"] / elapsed_seconds, 2) 
  52.  
  53. delete corpus_kw 
  54. for result in results: 
  55. del result["corpus_kws"
  56. create results dataframe 
  57. df = pd.DataFrame(results) 
  58. df.to_csv("results.csv"index=False
  59. logging.info("Benchmark finished. Results saved to results.csv"
  60. return df 

 

結果

 

  1. results = benchmark(texts[:2000], shuffle=True

 

Python中7種主要關鍵詞提取算法的基準測試

 

下面是產生的報告

 

Python中7種主要關鍵詞提取算法的基準測試

 

我們可視化一下:

 

Python中7種主要關鍵詞提取算法的基準測試

 

根據我們定義的得分公式(

avg_matched_keywords_per_document/time_elapsed_in_seconds), Rake 在 2 秒內處理 2000 個文檔,盡管準確度不如 KeyBERT,但時間因素使其獲勝。

如果我們只考慮準確性,計算為

avg_matched_keywords_per_document 和 avg_keywords_per_document 之間的比率,我們得到這些結果

 

Python中7種主要關鍵詞提取算法的基準測試

 

從準確性的角度來看,Rake 的表現也相當不錯。如果我們不考慮時間的話,KeyBERT 肯定會成為最準確、最有意義關鍵字提取的算法。Rake 雖然在準確度上排第二,但是差了一大截。

 

如果需要準確性,KeyBERT 肯定是首選,如果要求速度的話Rake肯定是首選,因為他的速度塊,準確率也算能接受吧。

 

責任編輯:華軒 來源: 今日頭條
相關推薦

2023-07-03 12:47:01

2010-08-31 10:57:36

2011-03-24 14:45:48

2020-07-23 10:20:28

物聯網工業物聯網技術

2011-06-20 14:32:59

關鍵詞

2011-06-07 18:45:41

關鍵詞

2018-02-07 16:38:27

算法自然語言文本

2024-06-13 09:05:12

2011-06-24 17:01:44

關鍵詞

2011-06-14 19:11:38

關鍵詞

2011-06-21 16:48:21

關鍵詞SEO

2011-06-22 18:19:40

2011-06-16 17:25:45

關鍵詞

2013-08-26 15:43:40

AppStore關鍵詞開發者應用選取關鍵詞

2025-05-13 08:20:58

2020-08-27 07:00:00

游戲游戲測試測試技術

2011-06-19 12:20:47

長尾關鍵詞

2011-06-14 10:01:03

長尾關鍵詞

2015-12-21 09:50:07

2011-05-25 17:58:00

點贊
收藏

51CTO技術棧公眾號

精品国内二区三区| 国产精品无遮挡| 欧美激情综合亚洲一二区| 大尺度做爰床戏呻吟舒畅| 在线毛片观看| 国产精品久久一级| 99热在线播放| 无码人妻丰满熟妇精品| 五月精品视频| 日韩精品免费电影| 57pao国产成永久免费视频| 伊人福利在线| 久久久久久亚洲综合| 亚洲a一级视频| 久久久久久久久久久影院| 色综合咪咪久久网| 亚洲黄色www网站| 91av视频免费观看| 亚洲国产福利| 一区二区三区四区在线| 色噜噜狠狠色综合网| 亚洲av无码一区二区乱子伦| 视频在线观看91| 欧美疯狂xxxx大交乱88av| 爱爱免费小视频| 亚洲一区二区三区四区电影| 91精品福利视频| 老子影院午夜伦不卡大全| 77777影视视频在线观看| 北条麻妃国产九九精品视频| 成人免费福利视频| 日日夜夜操视频| 亚洲三级电影在线观看| 久久福利视频网| 国产成人免费观看网站| 欧美日韩一本| 亚洲成人国产精品| 日韩av加勒比| 国产一区二区色噜噜| 色综合中文字幕国产| 成人午夜免费在线| 人人澡人人添人人爽一区二区| 国产欧美日韩综合精品一区二区| 国内精品久久久久久久果冻传媒| www.成人精品| 国产精品一区二区久激情瑜伽| 国产精品一区二区久久国产| 亚洲第一网站在线观看| 国产精品久久久亚洲一区| 久久久久国产精品一区| 欧美日韩在线视频免费播放| 国产精品久久久久蜜臀 | 日韩欧美xxxx| 少妇视频在线观看| 岛国av一区二区三区| 国产妇女馒头高清泬20p多| 丁香花在线高清完整版视频| 尤物av一区二区| 久久亚洲a v| 欧美黑人猛交的在线视频| 一区二区在线免费| 污污污污污污www网站免费| 最新国产露脸在线观看| 亚洲精品免费在线| 搞av.com| 激情都市亚洲| 色999日韩国产欧美一区二区| 黄色片一级视频| 亚洲人成午夜免电影费观看| 欧美性生交xxxxx久久久| 日本在线视频www| av在线播放一区| 欧美二区在线观看| 中文字幕人妻无码系列第三区| 精品中文在线| 亚洲第一网站免费视频| 大又大又粗又硬又爽少妇毛片 | 狠狠操一区二区三区| 午夜精品123| 欧美综合在线观看视频| 久久久久久久性潮| 日韩一级欧美一级| 日本少妇xxxx| 国产精品一国产精品| 在线不卡国产精品| 国产67194| 亚洲深爱激情| 国产精自产拍久久久久久蜜| 国产高潮流白浆喷水视频| 成人精品gif动图一区| 蜜桃免费一区二区三区| 97超碰人人在线| 一区二区国产视频| 99视频在线免费| 国产日韩欧美中文在线| 日韩久久精品电影| 看免费黄色录像| 亚洲毛片播放| 国产日韩精品视频| 天天操天天干天天爱| 国产精品毛片高清在线完整版| 欧美精品久久96人妻无码| 久草在线资源站手机版| 欧美久久久久久久久久| 午夜av免费看| 99精品电影| 欧美性资源免费| 精品国产99久久久久久宅男i| av电影一区二区| 综合网五月天| 在线观看v片| 日韩午夜小视频| 中文字幕免费视频| 欧美日韩天堂| 国产精品专区一| 天天操天天插天天射| 18涩涩午夜精品.www| 日韩av黄色网址| 日韩不卡在线视频| 在线日韩精品视频| 亚洲 欧美 视频| 国产精品一区二区视频| 亚洲精品高清国产一线久久| 国产777精品精品热热热一区二区| 欧美日本视频在线| 中文字幕免费在线看线人动作大片| 亚洲二区免费| 亚洲综合在线播放| 欧美尤物美女在线| 日本高清无吗v一区| 亚洲少妇18p| 伊人久久大香线蕉av超碰演员| 国产精品视频大全| 精品视频二区| 欧美网站在线观看| 色婷婷免费视频| 伊人成年综合电影网| 亚洲一区二区三区毛片 | 欧美另类69精品久久久久9999| 特级西西444www高清大视频| 久久久高清一区二区三区| 男女啪啪免费视频网站| 豆花视频一区二区| 欧美黑人性视频| 国内毛片毛片毛片毛片| 亚洲美女淫视频| 亚洲一区二区福利视频| 水蜜桃精品av一区二区| 国产精品免费视频xxxx| 狠狠色伊人亚洲综合网站l| 欧美性少妇18aaaa视频| 九色porny自拍视频| 免费亚洲一区| 日本不卡高清视频一区| 免费观看成人性生生活片| 亚洲欧美精品伊人久久| 亚洲黄网在线观看| 欧美激情在线免费观看| 999精彩视频| 99久久99视频只有精品| 成人在线一区二区| a毛片在线播放| 欧美videos中文字幕| 国产精品成人久久| 91丨九色丨黑人外教| 日本在线观看a| 日韩久久综合| 亚洲free性xxxx护士hd| 国产美女情趣调教h一区二区| 精品久久免费看| 偷偷操不一样的久久| 久久久精品tv| 中文字幕第38页| 91精品蜜臀一区二区三区在线| 91精品国产一区二区三区动漫 | 热99久久精品| 大乳在线免费观看| 欧美三级三级三级| 欧美黄片一区二区三区| 成人h动漫精品一区二| 欧美三级午夜理伦三级| 久久一区二区三区喷水| 成人三级视频在线观看一区二区| 狠狠躁少妇一区二区三区| 中国人与牲禽动交精品| 国产女人高潮的av毛片| 亚洲va国产天堂va久久en| 一道本在线观看| 国精产品一区一区三区mba桃花| 久久男人资源站| 天天久久夜夜| 亚洲一区二区三区在线免费观看| gogo高清在线播放免费| 一区二区亚洲欧洲国产日韩| av中文字幕免费| 色婷婷精品久久二区二区蜜臀av| jizzjizzjizz国产| eeuss国产一区二区三区| 日本老熟妇毛茸茸| 欧美日本久久| 日韩午夜视频在线观看| 亚洲一区二区三区四区电影| 国产精品99导航| 任你弄在线视频免费观看| 国产一区二区三区精品久久久| 性欧美18一19性猛交| 欧美四级电影网| 国产精品19乱码一区二区三区| 国产区在线观看成人精品| 99热这里只有精品2| 日韩国产欧美在线播放| 日韩精品综合在线| 婷婷综合亚洲| 欧美一区少妇| 国产一区二区在线视频你懂的| 国产综合久久久久久| 欧美成人精品一区二区男人小说| 久久99精品久久久久久青青91| 大胆av不用播放器在线播放| 亚洲精品美女在线| h片在线免费看| 欧美日精品一区视频| 中文字幕第15页| 亚洲制服丝袜av| 国产美女久久久久久| 国产日韩欧美高清| 国产精品探花一区二区在线观看| 国产九色精品成人porny| 日本888xxxx| 久久精品毛片| 青青艹视频在线| 好看的av在线不卡观看| 日本美女爱爱视频| 国产精品88久久久久久| 神马影院我不卡午夜| 亚洲精品一级二级三级| 久久精品国产99精品国产亚洲性色| 亚洲码欧美码一区二区三区| 成人免费网站在线观看| av成人免费| 国产精品激情av在线播放| 成人视屏在线观看| 日本精品性网站在线观看| 人狥杂交一区欧美二区| 91精品国产91久久久久福利| 爱情岛论坛亚洲品质自拍视频网站| 另类色图亚洲色图| 91麻豆免费在线视频| 久久久999精品| www.在线视频| 欧美久久精品一级黑人c片| 欧美被日视频| 麻豆乱码国产一区二区三区| 国产原创在线观看| 色综合久综合久久综合久鬼88| av网站导航在线观看免费| 欧美精品在线观看| 色婷婷在线播放| 欧美激情精品久久久久久黑人| 性欧美videos高清hd4k| 欧美精品videosex牲欧美| 国产黄大片在线观看| 欧美在线激情网| 日本成人三级电影| 国产精品久久久久久久久粉嫩av| 国产91精品在线| 91九色国产视频| a看欧美黄色女同性恋| 精品久久蜜桃| 国产一区国产二区国产三区| 婷婷四月色综合| 久久久久久久久丰满| 天堂8在线天堂资源bt| 亚洲精品乱码久久久久久蜜桃麻豆| 极品美女扒开粉嫩小泬| 葵司免费一区二区三区四区五区| 九色91popny| 国产精品一级二级三级| 国产十八熟妇av成人一区| 久久久久亚洲蜜桃| 青花影视在线观看免费高清| 亚洲一区二区美女| 久草视频一区二区| 7777女厕盗摄久久久| 欧美一级淫片aaaaaa| 亚洲人午夜精品免费| 国产精品一区二区三区视频网站| 欧美极品少妇xxxxⅹ喷水| 东京一区二区| 亚洲最大的成人网| 亚洲都市激情| 六月婷婷激情网| 亚洲欧美日韩国产一区| 日韩av片专区| 91亚洲男人天堂| 波多野结衣喷潮| 欧美日韩激情视频8区| 一起草av在线| 日韩精品免费在线视频| 麻豆视频在线免费观看| 97视频在线观看成人| 91精品国产色综合久久不卡粉嫩| 国产精品久久久久久免费观看 | 亚洲欧洲黄色网| 污污网站在线看| 国产精品入口日韩视频大尺度| ccyy激情综合| 天天综合中文字幕| 免费日韩av片| 超碰caoprom| 亚洲视频免费看| 无码人妻精品一区二区三区9厂| 欧美一区二区黄色| aaa日本高清在线播放免费观看| 久久露脸国产精品| 国产精品一区免费在线| 日本10禁啪啪无遮挡免费一区二区| 国产一区亚洲| 九一精品久久久| 欧美高清在线视频| 九九热在线免费观看| 日韩亚洲欧美综合| 日本电影在线观看网站| 国产成人av在线播放| 女仆av观看一区| 久艹在线免费观看| 国产成人午夜高潮毛片| 蜜桃av.com| 欧美天堂亚洲电影院在线播放| 欧洲一级在线观看| 亚州成人av在线| **爰片久久毛片| 国产一二三四五| 国产乱码字幕精品高清av | 欧美综合第一页| 欧美成人一区在线观看| 韩日视频在线观看| 国产成人在线视频网站| 亚洲欧美精品aaaaaa片| 欧美日韩免费一区二区三区视频| 欧美日韩影视| 日韩美女视频中文字幕| 亚洲美女久久| 国产精品免费成人| 久久久久99精品一区| 欧美日韩a v| 在线精品国产成人综合| 国产精成人品2018| 亚洲免费视频一区| 久久66热re国产| 少妇被躁爽到高潮无码文| 欧美高清精品3d| 成人在线免费看黄| 亚洲自拍偷拍色图| 免费黄色网址在线观看| 91在线视频播放地址| 欧美毛片在线观看| 精品欧美一区二区在线观看| 暖暖在线中文免费日本| 国产日韩欧美精品| 国产欧美日本| 在线观看日本中文字幕| 色偷偷成人一区二区三区91| 国产视频第一页在线观看| 国产精欧美一区二区三区| 超碰成人久久| 久久精品一二三四| 亚洲午夜久久久久中文字幕久| 韩国av永久免费| 欧美亚洲另类激情另类| 精品国产精品国产偷麻豆| 亚洲免费看av| 亚洲综合久久久久| 亚洲欧美日本在线观看| 国产精品久久激情| 91精品亚洲| 五月天丁香社区| 色哟哟亚洲精品| 尤物网在线观看| 99在线看视频| 欧美专区18| 性少妇xx生活| 精品国产乱码久久久久久老虎| 美女扒开腿让男人桶爽久久软| 日本不卡在线观看| 精品一区二区三区免费| 国产真实夫妇交换视频| 国产一区二区三区18 | 精品96久久久久久中文字幕无| 国产精品99精品无码视亚| 欧美性色xo影院| 成人国产免费电影| 精品欧美一区二区在线观看视频 | 国产91在线播放九色快色| 久久在线视频| 国产视频精品视频| 欧美色图片你懂的| 波多野结衣久久| 亚洲精品自在在线观看| 不卡av在线免费观看|