精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Python中的自然語言處理入門

開發 后端 自然語言處理
今天生成的數據中有很大一部分是非結構化的。非結構化數據包括社交媒體評論、瀏覽歷史記錄和客戶反饋。您是否發現自己處于需要分析大量文本數據的情況,卻不知道如何繼續?Python 中的自然語言處理可以提供幫助。

 本教程的目標是讓您能夠通過自然語言處理 (NLP) 的概念在 Python 中分析文本數據。您將首先學習如何將文本標記為更小的塊,將單詞規范化為其根形式,然后去除文檔中的任何噪音,為進一步分析做好準備。

[[434759]]

讓我們開始吧!

先決條件

在本教程中,我們將使用 Python 的nltk庫對文本執行所有 NLP 操作。在撰寫本教程時,我們使用的是 3.4 版的nltk. 要安裝庫,您可以pip在終端上使用命令:

 

  1. pip install nltk==3.4 

要檢查系統中的版本nltk,您可以將庫導入 Python 解釋器并檢查版本:

 

  1. import nltk  
  2. print(nltk.__version__) 

 

要執行nltk本教程中的某些操作,您可能需要下載特定資源。我們將在需要時描述每個資源。

但是,如果您想避免在本教程后面下載單個資源并立即獲取它們,請運行以下命令:

  1. python -m nltk.downloader all 

第 1 步:轉換為代幣

計算機系統本身無法在自然語言中找到意義。處理自然語言的第一步是將原始文本轉換為標記。甲令牌是連續字符的組合,具有一定的意義。由您決定如何將句子分解為標記。例如,一個簡單的方法是用空格分割一個句子,將其分解為單個單詞。

在 NLTK 庫中,您可以使用該word_tokenize()函數將字符串轉換為標記。但是,您首先需要下載punkt資源。在終端中運行以下命令:

 

  1. nltk.download('punkt'

接下來,您需要導入word_tokenizefromnltk.tokenize才能使用它:

 

  1. from nltk.tokenize import word_tokenize 
  2. print(word_tokenize("Hi, this is a nice hotel.")) 

 

代碼的輸出如下:

 

  1. ['Hi'',''this''is''a''nice''hotel''.'

您會注意到,word_tokenize它不僅僅基于空格拆分字符串,還將標點符號拆分為標記。如果您想在分析中保留標點符號,這取決于您。

第 2 步:將單詞轉換為其基本形式

在處理自然語言時,您經常會注意到同一個詞有多種語法形式。例如,“go”、“going”和“gone”是同一個動詞“go”的形式。

雖然您的項目的必要性可能要求您保留各種語法形式的單詞,但讓我們討論一種將同一單詞的各種語法形式轉換為其基本形式的方法。有兩種技術可用于將單詞轉換為其基詞。

第一種技術是詞干。Stemming是一種簡單的算法,可以從單詞中刪除詞綴。有多種詞干提取算法可用于 NLTK。我們將在本教程中使用 Porter 算法。

我們首先PorterStemmer從nltk.stem.porter. 接下來,我們將詞干分析器初始化為stemmer變量,然后使用該.stem()方法查找單詞的基本形式:

 

  1. from nltk.stem.porter import PorterStemmer  
  2. stemmer = PorterStemmer() 
  3. print(stemmer.stem("going")) 

 

上面代碼的輸出是go. 如果您針對上述其他形式的“go”運行詞干分析器,您會注意到詞干分析器返回相同的基本形式“go”。然而,由于詞干提取只是一種基于去除詞綴的簡單算法,當詞在語言中不太常用時,它會失敗。

例如,當您在單詞“constitutes”上嘗試詞干分析時,它給出了一個不直觀的結果:

 

  1. print(stemmer.stem("constitutes")) 

你會注意到輸出是“constitut”。

這個問題可以通過使用更復雜的方法來解決,以在給定的上下文中找到單詞的基本形式。該過程稱為詞形還原。詞形還原根據文本的上下文和詞匯對單詞進行規范化。在 NLTK 中,您可以使用WordNetLemmatizer類對句子進行詞形還原。

首先,您需要wordnet從 Python 終端中的 NLTK 下載器下載資源:

 

  1. nltk.download('wordnet'

下載后,您需要導入WordNetLemmatizer該類并對其進行初始化:

 

  1. from nltk.stem.wordnet import WordNetLemmatizer  
  2. lem = WordNetLemmatizer() 

 

要使用 lemmatizer,請使用.lemmatize()方法。它需要兩個參數:單詞和上下文。在我們的示例中,我們將使用“v”作為上下文。在查看該.lemmatize()方法的輸出后,讓我們進一步探索上下文:

 

  1. print(lem.lemmatize('constitutes''v')) 

您會注意到該.lemmatize()方法正確地將單詞“constitutes”轉換為其基本形式“constitute”。您還會注意到詞形還原比詞干提取花費的時間更長,因為算法更復雜。

讓我們檢查如何以.lemmatize()編程方式確定方法的第二個參數。NLTK 具有pos_tag()幫助確定句子中單詞上下文的功能。但是,您首先需要

averaged_perceptron_tagger通過 NLTK 下載器下載資源:

 

  1. nltk.download('averaged_perceptron_tagger'

接下來,導入pos_tag()函數并在一個句子上運行它:

 

  1. from nltk.tag import pos_tag 
  2. sample = "Hi, this is a nice hotel." 
  3. print(pos_tag(word_tokenize(sample))) 

 

您會注意到輸出是一個對列表。每對由一個標記及其標記組成,它表示整個文本中標記的上下文。請注意,標點符號的標簽本身就是:

 

  1. [('Hi''NNP'), 
  2. (','','), 
  3. ('this''DT'), 
  4. ('is''VBZ'), 
  5. ('a''DT'), 
  6. ('nice''JJ'), 
  7. ('hotel''NN'), 
  8. ('.''.')] 

 

你如何解碼每個令牌的上下文?這是Web 上所有標簽及其相應含義的完整列表。請注意,所有名詞的標簽都以“N”開頭,所有動詞的標簽都以“V”開頭。我們可以在方法的第二個參數中使用此信息.lemmatize():

 

  1. def lemmatize_tokens(stentence): 
  2.   lemmatizer = WordNetLemmatizer() 
  3.   lemmatized_tokens = [] 
  4.   for word, tag in pos_tag(stentence): 
  5.     if tag.startswith('NN'): 
  6.       pos = 'n' 
  7.     elif tag.startswith('VB'): 
  8.       pos = 'v' 
  9.     else
  10.       pos = 'a' 
  11.     lemmatized_tokens.append(lemmatizer.lemmatize(word, pos)) 
  12.   return lemmatized_tokens 
  13.  
  14. sample = "Legal authority constitutes all magistrates." 
  15. print(lemmatize_tokens(word_tokenize(sample))) 

 

上面代碼的輸出如下:

 

  1. ['Legal''authority''constitute''all''magistrate''.'

此輸出是預期的,其中“constitutes”和“magistrates”已分別轉換為“constitute”和“magistrate”。

第 3 步:數據清理

準備數據的下一步是清理數據并刪除任何對您的分析沒有意義的內容。從廣義上講,我們將考慮從您的分析中刪除標點符號和停用詞。

刪除標點符號是一項相當容易的任務。該庫的punctuation對象string包含所有英文標點符號:

 

  1. import string 
  2. print(string.punctuation) 

 

此代碼片段的輸出如下:

 

  1. '!"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~' 

為了從標記中刪除標點符號,您可以簡單地運行:

 

  1. for token in tokens: 
  2.   if token in string.punctuation: 
  3.     # Do something 

 

接下來,我們將專注于刪除停用詞。停用詞是語言中常用的詞,如“I”、“a”和“the”,在分析文本時對文本幾乎沒有意義。因此,我們將從分析中刪除停用詞。首先,stopwords從 NLTK 下載器下載資源:

 

  1. nltk.download('stopwords'

一旦下載完成后,進口stopwords從nltk.corpus和使用.words()方法與“英語”作為參數。這是一個包含 179 個英語停用詞的列表:

 

  1. from nltk.corpus import stopwords 
  2. stop_words = stopwords.words('english'

 

我們可以將詞形還原示例與本節中討論的概念結合起來創建以下函數,clean_data()。此外,在比較一個詞是否是停用詞列表的一部分之前,我們將其轉換為小寫。這樣,如果停止詞出現在句子的開頭并且大寫,我們仍然會捕獲它:

 

  1. def clean_data(tokens, stop_words = ()): 
  2.  
  3.   cleaned_tokens = [] 
  4.  
  5.   for token, tag in pos_tag(tokens): 
  6.     if tag.startswith("NN"): 
  7.       pos = 'n' 
  8.     elif tag.startswith('VB'): 
  9.       pos = 'v' 
  10.     else
  11.       pos = 'a' 
  12.  
  13.     lemmatizer = WordNetLemmatizer() 
  14.     token = lemmatizer.lemmatize(token, pos) 
  15.  
  16.     if token not in string.punctuation and token.lower() not in stop_words: 
  17.       cleaned_tokens.append(token) 
  18.   return cleaned_tokens 
  19.  
  20. sample = "The quick brown fox jumps over the lazy dog." 
  21. stop_words = stopwords.words('english'
  22.  
  23. clean_data(word_tokenize(sample), stop_words) 

 

該示例的輸出如下:

 

  1. ['quick''brown''fox''jump''lazy''dog'

如您所見,標點符號和停用詞已被刪除。

詞頻分布

現在您已經熟悉了 NLP 中的基本清理技術,讓我們嘗試找出文本中單詞的頻率。在本練習中,我們將使用古騰堡免費提供的童話故事《老鼠、鳥和香腸》的文本。我們將這個童話的文本存儲在一個字符串中,text。

首先,我們text對它進行標記,然后使用clean_data我們上面定義的函數對其進行清理:

 

  1. tokens = word_tokenize(text) 
  2. cleaned_tokens = clean_data(tokens, stop_words = stop_words) 

 

要查找文本中單詞的頻率分布,您可以使用FreqDistNLTK 類。使用令牌作為參數初始化類。然后使用該.most_common()方法查找常見的術語。在這種情況下,讓我們嘗試找出前十項:

 

  1. from nltk import FreqDist 
  2.  
  3. freq_dist = FreqDist(cleaned_tokens) 
  4. freq_dist.most_common(10) 

 

以下是這個童話故事中最常見的十個術語:

 

  1. [('bird', 15), 
  2. ('sausage', 11), 
  3. ('mouse', 8), 
  4. ('wood', 7), 
  5. ('time', 6), 
  6. ('long', 5), 
  7. ('make', 5), 
  8. ('fly', 4), 
  9. ('fetch', 4), 
  10. ('water', 4)] 

 

不出所料,三個最常見的詞是童話故事中的三個主要人物。

在分析文本時,單詞的頻率可能不是很重要。通常,NLP 的下一步是生成一個統計數據——TF-IDF(詞頻——逆文檔頻率)——它表示一個單詞在文檔列表中的重要性。

結論

在本教程中,我們首先了解了 Python 中的自然語言處理。我們將文本轉換為標記,將單詞轉換為它們的基本形式,最后,清理文本以刪除任何對分析沒有意義的部分。

盡管我們在本教程中研究了簡單的 NLP 任務,但還有更多技術需要探索。例如,我們可能想要對文本數據執行主題建模,其目標是找到文本可能正在談論的共同主題。NLP 中更復雜的任務是實現情感分析模型,以確定任何文本背后的感覺。

 

責任編輯:華軒 來源: 今日頭條
相關推薦

2021-05-18 07:15:37

Python

2020-04-24 10:53:08

自然語言處理NLP是人工智能

2017-04-17 15:03:16

Python自然語言處理

2021-05-13 07:17:13

Snownlp自然語言處理庫

2017-04-10 16:15:55

人工智能深度學習應用

2017-10-19 17:05:58

深度學習自然語言

2024-04-24 11:38:46

語言模型NLP人工智能

2021-05-17 09:00:00

自然語言人工智能技術

2024-02-05 14:18:07

自然語言處理

2020-02-25 12:00:53

自然語言開源工具

2017-05-05 15:34:49

自然語言處理

2020-02-25 23:28:50

工具代碼開發

2020-11-12 18:57:14

摘要PythonNLP

2021-07-07 17:46:32

人工智能自然語言處理AI

2017-06-29 13:02:54

大數據自然語言NLP

2024-11-07 15:49:34

2021-03-03 09:00:00

自然語言數據科學人工智能

2018-02-27 09:32:13

神經網絡自然語言初探

2020-09-23 10:45:45

人工智能自然語言NLP

2020-07-14 10:31:30

自然語言處理人工智能AI
點贊
收藏

51CTO技術棧公眾號

国产乱理伦片a级在线观看| 国产免费a视频| 中文字幕精品在线| 永久91嫩草亚洲精品人人| 日产精品久久久久| 91精品在线观看视频| 成人黄色一级视频| 免费大片在线观看www| 欧美日韩国产精品激情在线播放| 欧美三级日本三级少妇99| 免费萌白酱国产一区二区三区| 亚洲av毛片基地| 国产suv精品一区二区| 成人黄色一级视频| av免费在线视| 9.1在线观看免费| 欧美黄色片视频| 国产精品1区2区| 1区2区在线观看| 97人人模人人爽人人澡| 久久精品国产一区| 国产一区二区三区在线观看免费视频| 91精品国产综合久久久久久豆腐| av天堂永久资源网| 亚洲人高潮女人毛茸茸| 久久久久国产精品一区三寸| 四虎精品在永久在线观看| 欧美一区二区视频97| 懂色一区二区三区免费观看| av在线播放观看| 最新国产精品自拍| 91av在线视频观看| 国产精品久久久99| 亚洲日本视频在线| 成人毛片在线播放| 亚洲在线播放电影| 717成人午夜免费福利电影| 欧美电影一二区| 国产91久久久| 妓院一钑片免看黄大片| 久久国产精品亚洲| 久久亚洲精品小早川怜子| 在线日本欧美| 日本免费在线播放| 一区二区日本伦理| 亚洲激情免费观看| 精品一区二区三区视频在线观看| 免费在线国产视频| 青青青在线视频播放| 日韩成人中文字幕在线观看| 久久精品官网| av免费不卡| 久久久综合久久久| 中文字幕不卡每日更新1区2区| 国产揄拍国内精品对白| 成年男女免费视频网站不卡| 一级片黄色录像| 日本一区不卡| 日韩不卡中文字幕| 成人午夜免费视频| 中文字幕久久精品一区二区| 一级做a爱片久久毛片| 日韩av一二三四| 欧美在线观看视频| 欧美性高跟鞋xxxxhd| 亚洲永久免费精品| 超碰aⅴ人人做人人爽欧美| 天堂中文字幕在线观看| av观看免费在线| 国产成人精品999| 日韩欧美国产网站| 国产婷婷精品| 久久男人av资源站| 久久久久99精品成人片我成大片| 久久国产精品视频在线观看| 久久久久久久999| 欧美日韩裸体免费视频| 天使萌一区二区三区免费观看| 国产高清自产拍av在线| 毛片毛片女人毛片毛片| 免费观看成人网| 91精品视频观看| 亚洲二区中文字幕| 久久精品日韩一区二区三区| 日韩一区电影| 麻豆免费在线| 国产精品无码久久久久成人app| 国产成人强伦免费视频网站| 国产日产精品一区二区三区四区| 国产视频精品xxxx| 国产精品无人区| 亚洲婷婷在线| 国产中文欧美日韩在线| 日韩黄色影片| 久久精品99国产精| www.国产区| 国产精品国产一区二区| 日韩在线免费视频| 欧美日韩国产一区在线| 国产一区三区三区| 欧美亚洲国产精品久久| 僵尸再翻生在线观看| 国产伦理吴梦梦伦理| 成都免费高清电影| 波多野结衣家庭教师在线| 国产日韩在线看| 亚洲视频自拍偷拍| 婷婷六月综合亚洲| 不卡影院免费观看| 国产精品mm| 亚洲乱码一区| 免费影视亚洲| 亚洲国产www| 青青草原在线免费观看| 国产福利精品一区二区三区| 午夜老司机精品| 国产精品久久久久久久久久三级 | 久久国产精品-国产精品| 欧美多人乱p欧美4p久久| 日韩西西人体444www| 综合久久一区二区三区| 卡一卡二国产精品| 手机在线电影一区| 日本久久伊人| 丁香花高清在线观看完整版| 成人乱码一区二区三区| 国产 日韩 欧美 成人| 日本护士做爰视频| 欧美自拍小视频| 欧美xxxx吸乳| 蜜桃视频成人| 国产一区二区丝袜高跟鞋图片| 久久精品视频免费播放| 亚洲精品一区二区三区蜜桃下载 | 男人用嘴添女人下身免费视频| 国产在线精品一区二区中文| 国产激情视频一区| 美日韩丰满少妇在线观看| 精品国产露脸精彩对白| 在线观看免费亚洲| 一区二区高清视频在线观看| 91论坛在线播放| 国产福利一区二区三区视频| 不卡av在线免费观看| 日日夜夜一区二区| 视频在线观看免费影院欧美meiju| 蜜桃视频在线观看www社区| 中日韩一级黄色片| 国产精品视频免费观看| 久久99国产综合精品女同| 亚洲第一在线综合网站| 精品一区二区三区在线观看国产| 高潮按摩久久久久久av免费| 永久免费av在线| 一级黄在线观看| 日韩精品视频免费播放| 国产性生活大片| 精品人妻中文无码av在线| 亚洲少妇一区二区| 一级黄色高清视频| 91热这里只有精品| 波多野结衣50连登视频| 久久综合九色99| 欧美日韩综合在线免费观看| 日本在线中文字幕一区| heyzo一区| 3344国产永久在线观看视频| 影院在线观看全集免费观看| 亚洲淫性视频| 欧美日韩在线视频免费观看| 日本成人不卡| 国产粉嫩在线观看| 在线视频cao| 午夜影院一区| 无码小电影在线观看网站免费| 免费h视频在线观看| 色婷婷综合久久久中字幕精品久久| 国产伦久视频在线观看| 综合久久中文字幕| 一级视频在线播放| www.五月天激情| 人妻夜夜爽天天爽| gogogo高清在线观看免费完整版| 欧美18一19xxx性| 国产精品186在线观看在线播放| 成人一级福利| 四虎影视国产精品| 一区二区三区在线资源| 黑人操亚洲人| 亚洲清纯自拍| 美女尤物国产一区| 99国产精品久久久久久久久久| 久久久久久久久久久妇女| 欧美日韩免费观看一区=区三区| 日韩午夜免费| 国产精品中文字幕一区二区三区| 91欧美激情一区二区三区成人| 国产欧美精品在线观看| 亚洲成人一区二区| 91精品久久久久久久91蜜桃| 亚洲欧美综合区自拍另类| 欧美老女人性视频| 国产精品网红直播| 日本10禁啪啪无遮挡免费一区二区 | 色婷婷亚洲精品| 日韩精品免费一线在线观看| 久久综合伊人77777尤物| 国产精品久久视频| 欧美主播一区二区三区美女 久久精品人 | 这里只有精品国产| 午夜精品久久久久久久91蜜桃| 二区在线视频| 97人人做人人爽香蕉精品| 自拍视频一区| 青青草国产成人99久久| 国产夜色精品一区二区av| 岛国av在线不卡| 国产精品九色蝌蚪自拍| 在线免费观看视频一区| 亚洲女人天堂网| 日韩免费视频在线观看| 日韩欧美在线电影| 日韩精品你懂的| 神马午夜精品91| 亚洲爱爱综合网| 国产99在线观看| 精品日本12videosex| 日本午夜一本久久久综合| 最新不卡av在线| 日韩第一页在线| 国产精品极品尤物在线观看| 制服国产精品| 99久久久无码国产精品性波多| 国产又黄又爽又色| 欧美性videos| 美腿丝袜亚洲图片| 久久国产免费| 一区二区三区.www| 亚洲欧美制服综合另类| 91手机在线视频| www日韩在线观看| 久久久国产精华液| 最新97超碰在线| 乱亲女h秽乱长久久久| 精品中文字幕一区二区小辣椒 | 亚洲第一大网站| 精品中文视频| 日韩电影在线一区二区三区| 午夜在线一区| 最新不卡av在线| 亚洲网站在线观看| 欧美极品色图| 美女搡bbb又爽又猛又黄www| 中文字幕在线视频免费| 在线观看涩涩| 一本色道久久综合亚洲精品不| 国产精品久久久久久久久久久免费看 | 国产亚洲精品一区二555| 国产欧美精品一区二区三区| 久久黄色片网站| 国产乱人乱偷精品视频| 四虎影视国产精品| 免费观看在线综合| 69堂国产成人免费视频| 国产精品海角社区在线观看| 国产裸体舞一区二区三区| 日韩精品一卡二卡| **欧美日韩在线观看| 午夜一区在线| 欧美色电影在线| 91探花福利精品国产自产在线| 亚洲欧美日韩精品一区| 99久久精品国产一区二区成人| www.欧美| 99久久综合国产精品| 亚洲欧洲韩国日本视频| 中文字幕亚洲自拍| 国产免费xxx| 五月激情六月丁香| 婷婷精品久久久久久久久久不卡| 精品一区二区精品| 亚洲高清久久久久久| 亚洲欧美久久234| 久久久.www| 日本欧美韩国| 国产69精品久久99不卡| 亚洲天堂av在线免费| 国产又粗又长又爽视频| 中文字幕免费视频观看| 日本免费精品| 欧美国产日韩精品免费观看| 精品中文字幕在线| 亚洲一区二区三区四区五区xx| 亚洲经典一区二区三区| 精品亚洲成人| 精品久久久久久| dy888夜精品国产专区| 日本欧美一区二区三区不卡视频| av有码在线观看| 国产经典欧美精品| 日韩中文字幕国产| 国产免费人做人爱午夜视频| 成 人 黄 色 片 在线播放| 成人系列视频| 在线中文字幕一区二区| 国产原创精品| 中文字幕在线观看视频网站| 久久久久97| 精品久久久久久久久久久| 国产欧美在线一区二区| 国产午夜视频在线| 99久久婷婷国产综合精品青牛牛| 亚洲特黄一级片| 91九色极品视频| 精品无码久久久久久久| 牛牛视频精品一区二区不卡| 午夜欧美2019年伦理| 久久99影院| 国产在线一级片| 色喇叭免费久久综合网| 欧美色偷偷大香| 今天免费高清在线观看国语| 性做久久久久久久| 亚洲在线国产日韩欧美| 一区二区三区www| 免费看的av网站| www.成人爱| 亚洲美女精品一区| 精品日本一区二区| 色婷婷久久综合中文久久蜜桃av| 91亚洲国产| 日韩风俗一区 二区| 天天操天天摸天天爽| 在线看三级电影| 国产三级久久久| 国产精品初高中精品久久| 人人妻人人爽人人澡人人精品| 一区二区中文字| 亚洲精品永久免费| 国产成人精品综合久久久久99 | 成人免费观看男女羞羞视频| 欧美影院久久久| 国产一级在线观看视频| 91精品天堂福利在线观看| 亚洲精品美女视频| ass极品水嫩小美女ass| 亚洲www免费| 欧美性xxxxxxx| 国产视频九色蝌蚪| 俺来也官网欧美久久精品| 亚洲人123区| 污视频在线免费观看一区二区三区 | 亚洲中文字幕一区| 天堂精品久久久久| 欧美剧在线免费观看网站| 欧美一级黄色片视频| 自拍视频在线看| 色综合色狠狠天天综合色| 免费在线观看亚洲视频| a级片免费在线观看| 五月婷婷欧美视频| 北条麻妃在线一区| 免费福利视频一区二区三区| 色综合天天狠狠| 亚洲欧美日韩一级| 久久人体av| 欧美三级午夜理伦三级中视频| 九九视频精品在线观看| 成人黄色视屏网站| 欧美欧美欧美欧美首页| 性生活一级大片| 欧美激情影院| 中文字幕亚洲自拍| 欧美日韩免费做爰视频| av不卡免费看| 国产精品2018| 国产福利免费视频| 成人av免费在线播放| 日本在线高清视频一区| av电影高清在线观看| 精品久久久久久亚洲精品| 免费一区二区三区在线观看| 亚洲精品a区| 亚洲人成电影在线观看天堂色| 成年人视频软件| 亚洲区一区二| 成人av色在线观看| 天堂av一区二区三区| 成人免费在线视频观看| 九色自拍视频在线观看| 亚洲国产91视频| 亚洲人午夜精品免费| 久久久久久久久久一区二区三区| 日日夜夜免费精品| 国产一区二区不卡视频| 成人免费网站在线观看视频| 欧美四级电影网| xxxx日本黄色| 日韩精品欧美精品| 蜜桃臀一区二区三区|