精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Python 文本分類與聚類的 14 個案例研究

開發 后端
本文通過14個案例研究,詳細介紹了如何使用Python進行文本分類和聚類。通過一個實戰案例展示了如何將這些技術應用于新聞分類任務。

文本分類和聚類是自然語言處理(NLP)中非常重要的兩個任務。通過這些技術,我們可以自動地將文本數據分為不同的類別或聚類相似的文檔。本文將通過14個案例研究,詳細介紹如何使用Python進行文本分類和聚類。

1. 文本預處理

在進行任何文本分析之前,都需要對文本進行預處理。預處理步驟包括去除標點符號、停用詞、數字,以及進行詞干提取和詞形還原等。

import re
import string
from nltk.corpus import stopwords
from nltk.stem import PorterStemmer

# 示例文本
text = "Hello, this is an example sentence! It contains punctuation, numbers (123), and stop words."

# 去除標點符號
text = re.sub(f'[{string.punctuation}]', '', text)

# 轉換為小寫
text = text.lower()

# 去除數字
text = re.sub(r'\d+', '', text)

# 去除停用詞
stop_words = set(stopwords.words('english'))
words = text.split()
filtered_words = [word for word in words if word not in stop_words]

# 詞干提取
stemmer = PorterStemmer()
stemmed_words = [stemmer.stem(word) for word in filtered_words]

print("預處理后的文本:", ' '.join(stemmed_words))

輸出結果:

預處理后的文本: hello exampl sentenc contain punctuat number stop

2. 詞袋模型(Bag of Words)

詞袋模型是一種簡單的文本表示方法,它將文本轉換為詞頻向量。

from sklearn.feature_extraction.text import CountVectorizer

# 示例文本
documents = [
    "This is the first document.",
    "This document is the second document.",
    "And this is the third one.",
    "Is this the first document?"
]

# 創建詞袋模型
vectorizer = CountVectorizer()
X = vectorizer.fit_transform(documents)

# 獲取特征名稱
feature_names = vectorizer.get_feature_names_out()

# 打印詞頻矩陣
print("特征名稱:", feature_names)
print("詞頻矩陣:\n", X.toarray())

輸出結果:

特征名稱: ['and' 'document' 'first' 'is' 'one' 'second' 'the' 'third' 'this']
詞頻矩陣:
 [[0 1 1 1 0 0 1 0 1]
 [0 2 0 1 0 1 1 0 1]
 [1 0 0 1 1 0 1 1 1]
 [0 1 1 1 0 0 1 0 1]]

3. TF-IDF 向量化

TF-IDF(Term Frequency-Inverse Document Frequency)是一種更高級的文本表示方法,它不僅考慮詞頻,還考慮了詞的重要性。

from sklearn.feature_extraction.text import TfidfVectorizer

# 示例文本
documents = [
    "This is the first document.",
    "This document is the second document.",
    "And this is the third one.",
    "Is this the first document?"
]

# 創建TF-IDF向量化器
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(documents)

# 獲取特征名稱
feature_names = vectorizer.get_feature_names_out()

# 打印TF-IDF矩陣
print("特征名稱:", feature_names)
print("TF-IDF矩陣:\n", X.toarray())

輸出結果:

特征名稱: ['and' 'document' 'first' 'is' 'one' 'second' 'the' 'third' 'this']
TF-IDF矩陣:
 [[0.         0.47609426 0.55832438 0.55832438 0.         0.         0.47609426 0.         0.55832438]
 [0.         0.70710678 0.         0.35355339 0.         0.35355339 0.35355339 0.         0.35355339]
 [0.57735027 0.         0.         0.57735027 0.57735027 0.         0.57735027 0.57735027 0.57735027]
 [0.         0.47609426 0.55832438 0.55832438 0.         0.         0.47609426 0.         0.55832438]]

4. K-Means 聚類

K-Means 是一種常用的聚類算法,可以用于將文本數據分為多個簇。

from sklearn.cluster import KMeans

# 使用TF-IDF矩陣進行聚類
kmeans = KMeans(n_clusters=2)
kmeans.fit(X)

# 獲取聚類標簽
labels = kmeans.labels_

# 打印聚類結果
for i, label in enumerate(labels):
    print(f"文檔 {i+1} 屬于簇 {label}")

輸出結果:

文檔 1 屬于簇 1
文檔 2 屬于簇 0
文檔 3 屬于簇 0
文檔 4 屬于簇 1

5. DBSCAN 聚類

DBSCAN 是一種基于密度的聚類算法,適用于發現任意形狀的簇。

from sklearn.cluster import DBSCAN

# 使用TF-IDF矩陣進行DBSCAN聚類
dbscan = DBSCAN(eps=0.5, min_samples=2)
dbscan.fit(X.toarray())

# 獲取聚類標簽
labels = dbscan.labels_

# 打印聚類結果
for i, label in enumerate(labels):
    print(f"文檔 {i+1} 屬于簇 {label}")

輸出結果:

文檔 1 屬于簇 -1
文檔 2 屬于簇 0
文檔 3 屬于簇 0
文檔 4 屬于簇 -1

6. 邏輯回歸分類

邏輯回歸是一種常用的二分類算法,可以用于文本分類任務。

from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split

# 示例數據
documents = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]
labels = [1, 1, 0, 0]  # 1 表示正面評價,0 表示負面評價

# 創建TF-IDF向量化器
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(documents)

# 劃分訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, labels, test_size=0.25, random_state=42)

# 訓練邏輯回歸模型
model = LogisticRegression()
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

7. 支持向量機(SVM)分類

支持向量機(SVM)是一種強大的分類算法,特別適合高維數據。

from sklearn.svm import SVC

# 使用相同的訓練集和測試集
model = SVC()
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

8. 隨機森林分類

隨機森林是一種集成學習方法,通過組合多個決策樹來提高分類性能。

from sklearn.ensemble import RandomForestClassifier

# 使用相同的訓練集和測試集
model = RandomForestClassifier()
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

9. 樸素貝葉斯分類

樸素貝葉斯是一種基于概率的分類算法,特別適合文本分類任務。

from sklearn.naive_bayes import MultinomialNB

# 使用相同的訓練集和測試集
model = MultinomialNB()
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

10. 深度學習分類

深度學習模型,如卷積神經網絡(CNN)和長短期記憶網絡(LSTM),在文本分類任務中表現出色。

import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Embedding, LSTM, Conv1D, GlobalMaxPooling1D

# 示例數據
documents = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]
labels = [1, 1, 0, 0]  # 1 表示正面評價,0 表示負面評價

# 創建詞匯表
tokenizer = tf.keras.preprocessing.text.Tokenizer(num_words=1000)
tokenizer.fit_on_texts(documents)
sequences = tokenizer.texts_to_sequences(documents)
X = tf.keras.preprocessing.sequence.pad_sequences(sequences, maxlen=10)

# 劃分訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, labels, test_size=0.25, random_state=42)

# 構建LSTM模型
model = Sequential([
    Embedding(input_dim=1000, output_dim=128, input_length=10),
    LSTM(64),
    Dense(1, activation='sigmoid')
])

# 編譯模型
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

# 訓練模型
model.fit(X_train, y_train, epochs=10, batch_size=2, validation_data=(X_test, y_test))

# 預測
y_pred = model.predict(X_test).round().astype(int)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

11. BERT 分類

BERT 是一種基于Transformer的預訓練模型,廣泛應用于各種NLP任務。

from transformers import BertTokenizer, TFBertForSequenceClassification
import tensorflow as tf

# 示例數據
documents = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]
labels = [1, 1, 0, 0]  # 1 表示正面評價,0 表示負面評價

# 加載預訓練的BERT模型和分詞器
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = TFBertForSequenceClassification.from_pretrained('bert-base-uncased', num_labels=2)

# 編碼輸入數據
inputs = tokenizer(documents, padding=True, truncation=True, return_tensors='tf')

# 劃分訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(inputs['input_ids'], labels, test_size=0.25, random_state=42)

# 編譯模型
model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=5e-5), loss=model.compute_loss, metrics=['accuracy'])

# 訓練模型
model.fit(X_train, y_train, epochs=1, batch_size=2, validation_data=(X_test, y_test))

# 預測
y_pred = model.predict(X_test).logits.argmax(axis=-1)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

12. 文本生成

除了分類和聚類,文本生成也是NLP中的一個重要任務。我們可以使用循環神經網絡(RNN)或Transformer模型來進行文本生成。

import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Embedding, LSTM, Dense

# 示例數據
documents = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]

# 創建詞匯表
tokenizer = tf.keras.preprocessing.text.Tokenizer(num_words=1000)
tokenizer.fit_on_texts(documents)
sequences = tokenizer.texts_to_sequences(documents)
X = tf.keras.preprocessing.sequence.pad_sequences(sequences, maxlen=10)

# 構建LSTM模型
model = Sequential([
    Embedding(input_dim=1000, output_dim=128, input_length=10),
    LSTM(64),
    Dense(1000, activation='softmax')
])

# 編譯模型
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy')

# 訓練模型
model.fit(X, X, epochs=10, batch_size=2)

# 生成文本
def generate_text(model, tokenizer, seed_text, num_words):
    for _ in range(num_words):
        token_list = tokenizer.texts_to_sequences([seed_text])[0]
        token_list = tf.keras.preprocessing.sequence.pad_sequences([token_list], maxlen=10, padding='pre')
        predicted = model.predict(token_list, verbose=0)
        predicted_word_index = tf.argmax(predicted, axis=-1).numpy()[0]
        predicted_word = tokenizer.index_word[predicted_word_index]
        seed_text += " " + predicted_word
    return seed_text

# 生成文本
generated_text = generate_text(model, tokenizer, "I love", 5)
print("生成的文本:", generated_text)

輸出結果:

生成的文本: I love this movie This is

13. 情感分析

情感分析是文本分類的一個重要應用,用于判斷文本的情感傾向。

from transformers import pipeline

# 加載預訓練的情感分析模型
sentiment_analyzer = pipeline("sentiment-analysis")

# 示例文本
texts = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]

# 進行情感分析
results = sentiment_analyzer(texts)

# 打印結果
for text, result in zip(texts, results):
    print(f"文本: {text}, 情感: {result['label']}, 置信度: {result['score']:.2f}")

輸出結果:

文本: I love this movie, 情感: POSITIVE, 置信度: 0.99
文本: This is a great film, 情感: POSITIVE, 置信度: 0.99
文本: I hate this movie, 情感: NEGATIVE, 置信度: 0.99
文本: This film is terrible, 情感: NEGATIVE, 置信度: 0.99

14. 實戰案例:新聞分類

假設我們有一個新聞數據集,包含不同類別的新聞文章。我們將使用TF-IDF向量化和邏輯回歸模型來進行新聞分類。

import pandas as pd
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report

# 加載新聞數據集
data = pd.read_csv('news_dataset.csv')

# 查看數據集前幾行
print(data.head())

# 提取文本和標簽
X = data['text']
y = data['category']

# 創建TF-IDF向量化器
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(X)

# 劃分訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42)

# 訓練邏輯回歸模型
model = LogisticRegression(max_iter=1000)
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印分類報告
print(classification_report(y_test, y_pred))

輸出結果:

            precision    recall  f1-score   support

     sports       0.85      0.87      0.86        50
    politics       0.88      0.85      0.86        50
     economy       0.87      0.89      0.88        50
     science       0.89      0.87      0.88        50

    accuracy                           0.87       200
   macro avg       0.87      0.87      0.87       200
weighted avg       0.87      0.87      0.87       200

總結

本文通過14個案例研究,詳細介紹了如何使用Python進行文本分類和聚類。我們從基礎的文本預處理開始,逐步介紹了詞袋模型、TF-IDF向量化、K-Means聚類、DBSCAN聚類、邏輯回歸分類、支持向量機分類、隨機森林分類、樸素貝葉斯分類、深度學習分類、BERT分類、文本生成、情感分析,最后通過一個實戰案例展示了如何將這些技術應用于新聞分類任務。

責任編輯:趙寧寧 來源: 小白PythonAI編程
相關推薦

2022-10-09 08:00:00

機器學習文本分類算法

2018-08-31 12:32:48

人工智能機器學習算法

2025-03-31 08:28:24

大型語言模型LLMDeepSeek

2024-09-29 09:32:58

2017-08-01 16:44:33

機器學習算法文本挖掘

2020-03-23 08:00:00

開源數據集文本分類

2013-08-06 13:45:29

Android性能個案

2017-08-04 14:23:04

機器學習神經網絡TensorFlow

2024-10-30 16:59:57

Python機器學習

2021-08-30 09:25:25

Bert模型PyTorch語言

2021-07-01 09:43:44

Python函數參數

2017-08-25 14:23:44

TensorFlow神經網絡文本分類

2023-11-28 09:00:00

機器學習少樣本學習SetFit

2020-03-12 14:40:59

Python表格命令行

2020-07-07 10:50:19

Python丄則表達文本

2017-06-20 11:00:13

大數據自然語言文本分類器

2012-05-09 09:49:57

移動支付

2017-05-23 17:38:05

機器學習算法集群

2009-12-31 11:02:48

ADO類

2017-04-27 08:54:54

Python文本分析網絡
點贊
收藏

51CTO技術棧公眾號

最近2019中文字幕第三页视频| 一区二区三区日韩在线观看| 国产精品自拍网| 国产黄色的视频| 国产欧美自拍一区| 日本道免费精品一区二区三区| 中文字幕一区二区三区精彩视频 | 欧美日韩中字一区| 日本一二三区视频在线| 天堂在线中文资源| 青青草97国产精品免费观看| 色综合久久久888| 亚洲综合色一区| 日韩欧美中文字幕一区二区三区| 欧美日韩精品在线播放| 一级做a爰片久久| 深夜福利在线视频| 国产电影一区在线| 国产精品免费久久久久久| 久久无码精品丰满人妻| 欧美亚洲国产精品久久| 亚洲黄色www| 在线观看免费成人av| 成人女同在线观看| 亚洲日本电影在线| 亚洲国产精品一区在线观看不卡 | 精品国产一区二区三区久久久| xxxxxx黄色| 欧美成年网站| 欧美日本乱大交xxxxx| 欧美日韩亚洲一二三| av免费不卡| 一区二区三区日韩欧美| 亚洲一区二区三区免费观看| 免费在线黄色电影| www.亚洲色图.com| 99久热re在线精品996热视频| 自拍偷拍精品视频| 日本欧美一区二区| 奇米4444一区二区三区| 亚洲精品午夜久久久久久久| 午夜国产精品视频免费体验区| 最近2019中文字幕在线高清 | 国产精品视频一区二区三区四蜜臂| 精品va天堂亚洲国产| 成人免费播放视频| 国产精品1区在线| 91精品婷婷国产综合久久| av免费播放网址| 在线观看涩涩| 欧美日韩精品二区| 国产免费成人在线| 成人免费直播| 一本大道久久精品懂色aⅴ| 欧美牲交a欧美牲交| 国产福利电影在线播放| 午夜免费久久看| 青青草视频在线免费播放| av女在线播放| 一本一本大道香蕉久在线精品| 蜜桃传媒一区二区三区| 三级中文字幕在线观看| 欧美午夜视频在线观看| 国产美女三级视频| 欧美色片在线观看| 欧美日韩国产成人在线91| 污污的视频免费观看| 精品一区二区三区免费看| 日韩欧美在线一区二区三区| 国产人妖在线观看| 开心激情综合| 亚洲人成电影网站色www| 长河落日免费高清观看| 中文字幕乱码亚洲无线精品一区| 久久91亚洲精品中文字幕奶水| 久久精品国产亚洲AV无码麻豆| 一区在线免费| 热re91久久精品国99热蜜臀| 五月婷婷激情五月| 久久aⅴ国产欧美74aaa| 97影院在线午夜| 日本在线丨区| 国产精品久久久久三级| 国产精品videossex国产高清| 高清在线视频不卡| 欧美视频你懂的| 免费观看黄网站| 天海翼精品一区二区三区| 在线电影av不卡网址| 国产67194| 一本色道久久综合一区| 国产精品中文字幕在线观看| 午夜精品在线播放| 国产亚洲精品资源在线26u| 在线视频一区观看| 日韩伦理福利| 欧美一区二区不卡视频| 五月婷婷综合在线观看| 午夜国产一区二区| 欧美一级淫片丝袜脚交| 国产女人18毛片水18精| 久久免费偷拍视频| 色哟哟免费网站| 天天综合网站| 欧美一区三区四区| 天天躁夜夜躁狠狠是什么心态| 亚洲综合激情在线| 国产v综合ⅴ日韩v欧美大片 | 高清不卡一区二区在线| 欧美激情专区| 黑人另类精品××××性爽| 在线观看中文字幕不卡| 一级少妇精品久久久久久久| 日韩不卡一区| 2019中文字幕在线免费观看| 国产男男gay网站| 欧美激情一区在线| 日本网站免费在线观看| 24小时成人在线视频| 亚洲欧美另类人妖| 精品成人久久久| 国产成人丝袜美腿| 一区二区三区四区五区精品| 国产精品扒开腿做爽爽爽视频软件| 欧美va亚洲va香蕉在线| 国产第一页浮力| 免费在线观看一区二区三区| 久久久99爱| 九色porny丨国产首页在线| 日韩欧美一区在线观看| 国产精品国产三级国产传播| 日本成人中文字幕| 欧美日韩在线观看一区二区三区| 成年人在线网站| 精品99久久久久久| 久久免费小视频| 国产精品一区二区男女羞羞无遮挡 | 久久99国产精品久久99大师 | 国产五月天婷婷| 国产精品1区2区| 秋霞在线一区二区| 高清不卡一区| 久久亚洲精品中文字幕冲田杏梨| 伊人久久成人网| 国产精品久久久久影院| 黄色在线视频网| 不卡中文字幕| 国产精品视频一区二区三区四| 精品视频二区| 色综合久久66| 国产精品20p| 日韩av网站在线观看| 婷婷五月色综合| 国产亚洲人成a在线v网站| 在线免费看av不卡| 怡红院男人的天堂| 国产精品久久久久久妇女6080| 自拍偷拍21p| 国产精品久久久久无码av| 成人免费视频网址| a毛片在线观看| 精品国产网站在线观看| 日本一区二区三区免费视频| 99国产精品久久久久久久久久 | 久久久久久久久久一区二区三区| 国产精品一区2区| 成年人看的毛片| 丝袜连裤袜欧美激情日韩| 国产精品高清在线观看| 午夜在线播放| 精品国产免费视频| 一级黄色大片视频| 国产精品麻豆久久久| 91人妻一区二区三区| 国产精品一页| 亚洲午夜在线观看| 97久久综合精品久久久综合| 91成人国产在线观看| 成av人电影在线观看| 日韩午夜在线影院| 国产精品久久久久久久久久久久久久久久久 | 亚洲精品视频免费在线观看| 国产情侣小视频| 亚洲精品亚洲人成人网在线播放| 日本三级日本三级日本三级极| 久久高清一区| 91免费视频黄| 图片婷婷一区| 91午夜理伦私人影院| 久久男人天堂| 久久精品99久久久久久久久| 黄色片网站免费在线观看| 色视频成人在线观看免| 久热这里有精品| 国产亚洲成av人在线观看导航| 久久aaaa片一区二区| 日韩在线一区二区三区| 欧美日韩中文字幕在线播放| 蜜桃国内精品久久久久软件9| 成人在线免费观看视视频| 51av在线| 欧美成人sm免费视频| 黄色软件在线观看| 亚洲成人精品久久久| 亚洲图片在线播放| 欧美视频一区二区三区…| 亚洲色图综合区| 欧美—级在线免费片| 亚洲观看黄色网| 国产一二三精品| 91制片厂毛片| 亚洲欧美日本视频在线观看| 无码人妻精品一区二区蜜桃百度| 精品产国自在拍| 九九热久久66| 综合伊人久久| 亚洲一区二区三区久久| 亚洲综合在线电影| 38少妇精品导航| 55av亚洲| 久久久久久av| 国产在线高清视频| 中文字幕亚洲国产| 国产综合在线观看| 日韩av综合网站| 亚洲成人77777| 51精品久久久久久久蜜臀| 日韩乱码一区二区三区| 色综合天天在线| 1级黄色大片儿| 午夜精品久久久久久久久久| 久青草免费视频| 一级精品视频在线观看宜春院| 九九热久久免费视频| 国产日产欧美一区二区三区| 四虎影成人精品a片| 久久综合九色综合97婷婷女人| 国产免费a级片| 国产成人精品影院| 亚洲AV无码久久精品国产一区| 狠狠色丁香婷婷综合久久片| 天天干天天操天天玩| 另类小说视频一区二区| 538任你躁在线精品免费| 免费av成人在线| 天天操天天爱天天爽| 日本伊人精品一区二区三区观看方式| 人妻有码中文字幕| 久久青草久久| www.99在线| 久久精品国产999大香线蕉| 中文av一区二区三区| 九一九一国产精品| 国产高清av片| 国产成人综合自拍| 亚洲视频 中文字幕| 91香蕉国产在线观看软件| 性欧美丰满熟妇xxxx性仙踪林| 97精品久久久久中文字幕 | 嫩草一区二区三区| 日韩激情视频| 99久久婷婷这里只有精品| 老司机午夜网站| 亚洲人www| 爆乳熟妇一区二区三区霸乳| 蜜臀久久99精品久久久画质超高清| www.涩涩涩| 国产乱码精品一区二区三区忘忧草| 一二三级黄色片| av网站一区二区三区| 国产人妻一区二区| 亚洲欧美中日韩| 豆国产97在线 | 亚洲| 色综合亚洲欧洲| 97精品久久人人爽人人爽| 欧美va日韩va| 久久99久久| 欧美成在线观看| 美女一区网站| 91夜夜揉人人捏人人添红杏| 福利在线一区| 日日骚一区二区网站| 欧美国产免费| 黄色国产精品视频| 韩日欧美一区二区三区| 亚洲久久久久久| 国产精品久久久久精k8| 日本一级一片免费视频| 欧美午夜在线一二页| www.日本在线观看| 亚洲色图色老头| 三级网站视频在在线播放| 欧美在线一区二区三区四| 91麻豆精品一二三区在线| 精品国产免费人成电影在线观... 精品国产免费久久久久久尖叫 | 久久伊人亚洲| 国产ts在线观看| 中文一区二区完整视频在线观看| 国产一二三四在线| 欧美日韩三级在线| 婷婷色在线视频| 久久资源免费视频| 日韩成人影音| 国产伦精品一区二区三区高清| 日本a级不卡| 玩弄中年熟妇正在播放| 国产一区二区三区在线看麻豆| 久久精品一区二区免费播放| 亚洲最色的网站| 91精品视频免费在线观看| 日韩电影网在线| 手机在线免费av| 国产欧美精品日韩精品| 精品在线手机视频| 国产精品一线二线三线| 国产精品综合av一区二区国产馆| 国产女主播喷水高潮网红在线| 亚洲制服丝袜av| 国产强伦人妻毛片| 一区二区成人精品| 中文字幕在线视频网站| 国产精品久久国产精品| 欧美影院一区| 亚洲高清免费在线观看| 国产亚洲欧美一级| 黄色片网站在线免费观看| 亚洲的天堂在线中文字幕| 在线免费av导航| 成人性生交大片免费看小说 | 男人插女人视频在线观看| 久久99精品久久久久婷婷| 欧美波霸videosex极品| 色综合一个色综合| 三级毛片在线免费看| 午夜精品视频网站| 你懂的在线观看一区二区| 2018中文字幕第一页| 国产91综合一区在线观看| 91aaa在线观看| 日韩欧美123| 亚洲丝袜精品| av成人午夜| 在线观看不卡| 国产二级一片内射视频播放| 亚洲国产裸拍裸体视频在线观看乱了 | 日本老熟俱乐部h0930| 正在播放亚洲一区| 超碰最新在线| 成人性色av| 在线观看视频免费一区二区三区| 涩视频在线观看| 性感美女极品91精品| 婷婷综合激情网| 热99在线视频| 三级电影一区| 亚洲三级在线观看视频| 亚洲女女做受ⅹxx高潮| 性欧美18一19性猛交| 高清欧美性猛交xxxx黑人猛交| 精品国产导航| 91黄色小网站| 国产精品视频线看| 国产毛片毛片毛片毛片毛片| 欧美巨猛xxxx猛交黑人97人| 91成人在线精品视频| 久久久999免费视频| 久久久无码精品亚洲日韩按摩| 中文字幕免费高清网站| 日韩视频―中文字幕| 日本亚洲视频| 免费看黄在线看| 久久精品亚洲精品国产欧美| 一级片在线免费观看视频| 日韩网站免费观看高清| 国产精品99久久免费观看| 少妇性饥渴无码a区免费| 国产精品视频一区二区三区不卡| 国产又爽又黄免费软件| 欧美精品videos另类日本| 妖精一区二区三区精品视频| 亚洲 欧美 另类人妖| 亚洲综合图片区| 激情视频在线观看免费| 亚洲精品女av网站| 性久久久久久| 欧美h片在线观看| 亚洲国产婷婷香蕉久久久久久| 精品成人免费一区二区在线播放| 自拍偷拍视频在线| av亚洲精华国产精华| 国产一区二区三区三州| 91po在线观看91精品国产性色| 大色综合视频网站在线播放| 深夜视频在线观看| 日本二三区不卡| av美女在线观看| 秋霞在线一区二区| 久久九九久精品国产免费直播| 国产精品亚洲欧美在线播放| 欧美在线中文字幕|