精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

常見的降維技術(shù)比較:能否在不丟失信息的情況下降低數(shù)據(jù)維度

人工智能 機(jī)器學(xué)習(xí)
本文將比較各種降維技術(shù)在機(jī)器學(xué)習(xí)任務(wù)中對(duì)表格數(shù)據(jù)的有效性。我們將降維方法應(yīng)用于數(shù)據(jù)集,并通過(guò)回歸和分類分析評(píng)估其有效性。

本文將比較各種降維技術(shù)在機(jī)器學(xué)習(xí)任務(wù)中對(duì)表格數(shù)據(jù)的有效性。我們將降維方法應(yīng)用于數(shù)據(jù)集,并通過(guò)回歸和分類分析評(píng)估其有效性。我們將降維方法應(yīng)用于從與不同領(lǐng)域相關(guān)的 UCI 中獲取的各種數(shù)據(jù)集。總共選擇了 15 個(gè)數(shù)據(jù)集,其中 7 個(gè)將用于回歸,8 個(gè)用于分類。

圖片


為了使本文易于閱讀和理解,僅顯示了一個(gè)數(shù)據(jù)集的預(yù)處理和分析。實(shí)驗(yàn)從加載數(shù)據(jù)集開始。數(shù)據(jù)集被分成訓(xùn)練集和測(cè)試集,然后在均值為 0 且標(biāo)準(zhǔn)差為 1 的情況下進(jìn)行標(biāo)準(zhǔn)化。

然后會(huì)將降維技術(shù)應(yīng)用于訓(xùn)練數(shù)據(jù),并使用相同的參數(shù)對(duì)測(cè)試集進(jìn)行變換以進(jìn)行降維。對(duì)于回歸,使用主成分分析(PCA)和奇異值分解(SVD)進(jìn)行降維,另一方面對(duì)于分類,使用線性判別分析(LDA)

降維后就訓(xùn)練多個(gè)機(jī)器學(xué)習(xí)模型進(jìn)行測(cè)試,并比較了不同模型在通過(guò)不同降維方法獲得的不同數(shù)據(jù)集上的性能。

數(shù)據(jù)處理

讓我們通過(guò)加載第一個(gè)數(shù)據(jù)集開始這個(gè)過(guò)程,

import pandas as pd ## for data manipulation
df = pd.read_excel(r'Regression\AirQualityUCI.xlsx')
print(df.shape)
df.head()

圖片

數(shù)據(jù)集包含15個(gè)列,其中一個(gè)是需要預(yù)測(cè)標(biāo)簽。在繼續(xù)降維之前,日期和時(shí)間列也會(huì)被刪除。

X = df.drop(['CO(GT)', 'Date', 'Time'], axis=1)
y = df['CO(GT)']
X.shape, y.shape

#Output: ((9357, 12), (9357,))

為了訓(xùn)練,我們需要將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集,這樣可以評(píng)估降維方法和在降維特征空間上訓(xùn)練的機(jī)器學(xué)習(xí)模型的有效性。模型將使用訓(xùn)練集進(jìn)行訓(xùn)練,性能將使用測(cè)試集進(jìn)行評(píng)估。

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
X_train.shape, X_test.shape, y_train.shape, y_test.shape

#Output: ((7485, 12), (1872, 12), (7485,), (1872,))

在對(duì)數(shù)據(jù)集使用降維技術(shù)之前,可以對(duì)輸入數(shù)據(jù)進(jìn)行縮放,這樣可以保證所有特征處于相同的比例上。這對(duì)于線性模型來(lái)說(shuō)是是至關(guān)重要的,因?yàn)槟承┙稻S方法可以根據(jù)數(shù)據(jù)是否標(biāo)準(zhǔn)化以及對(duì)特征的大小敏感而改變其輸出。

from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
X_train = scaler.fit_transform(X_train)
X_test = scaler.transform(X_test)
X_train.shape, X_test.shape

主成分分析(PCA)

線性降維的PCA方法降低了數(shù)據(jù)的維數(shù),同時(shí)保留了盡可能多的數(shù)據(jù)方差。

這里將使用Python sklearn.decomposition模塊的PCA方法。要保留的組件數(shù)量是通過(guò)這個(gè)參數(shù)指定的,這個(gè)數(shù)字會(huì)影響在較小的特征空間中包含多少維度。作為一種替代方法,我們可以設(shè)定要保留的目標(biāo)方差,它根據(jù)捕獲的數(shù)據(jù)中的方差量建立組件的數(shù)量,我們這里設(shè)置為0.95

from sklearn.decomposition import PCA
pca = PCA(n_compnotallow=0.95)
X_train_pca = pca.fit_transform(X_train)
X_test_pca = pca.transform(X_test)
X_train_pca

圖片

上述特征代表什么?主成分分析(PCA)將數(shù)據(jù)投射到低維空間,試圖盡可能多地保留數(shù)據(jù)中的不同之處。雖然這可能有助于特定的操作,但也可能使數(shù)據(jù)更難以理解。,PCA可以識(shí)別數(shù)據(jù)中的新軸,這些軸是初始特征的線性融合。

奇異值分解(SVD)

SVD是一種線性降維技術(shù),它將數(shù)據(jù)方差較小的特征投影到低維空間。我們需要設(shè)置降維后要保留的組件數(shù)量。這里我們將把維度降低 2/3。

from sklearn.decomposition import TruncatedSVD
svd = TruncatedSVD(n_compnotallow=int(X_train.shape[1]*0.33))
X_train_svd = svd.fit_transform(X_train)
X_test_svd = svd.transform(X_test)
X_train_svd

圖片

訓(xùn)練回歸模型

現(xiàn)在,我們將開始使用上述三種數(shù)據(jù)(原始數(shù)據(jù)集、PCA和SVD)對(duì)模型進(jìn)行訓(xùn)練和測(cè)試,并且我們使用多個(gè)模型進(jìn)行對(duì)比。

import numpy as np
from sklearn.linear_model import LinearRegression
from sklearn.neighbors import KNeighborsRegressor
from sklearn.svm import SVR
from sklearn.tree import DecisionTreeRegressor
from sklearn.ensemble import RandomForestRegressor, GradientBoostingRegressor
from sklearn.metrics import r2_score, mean_squared_error
import time

train_test_ML:這個(gè)函數(shù)將完成與模型的訓(xùn)練和測(cè)試相關(guān)的重復(fù)任務(wù)。通過(guò)計(jì)算rmse和r2_score來(lái)評(píng)估所有模型的性能。并返回包含所有詳細(xì)信息和計(jì)算值的數(shù)據(jù)集,還將記錄每個(gè)模型在各自的數(shù)據(jù)集上訓(xùn)練和測(cè)試所花費(fèi)的時(shí)間。

def train_test_ML(dataset, dataform, X_train, y_train, X_test, y_test):
temp_df = pd.DataFrame(columns=['Data Set', 'Data Form', 'Dimensions', 'Model', 'R2 Score', 'RMSE', 'Time Taken'])
for i in [LinearRegression, KNeighborsRegressor, SVR, DecisionTreeRegressor, RandomForestRegressor, GradientBoostingRegressor]:
start_time = time.time()
reg = i().fit(X_train, y_train)
y_pred = reg.predict(X_test)
r2 = np.round(r2_score(y_test, y_pred), 2)
rmse = np.round(np.sqrt(mean_squared_error(y_test, y_pred)), 2)
end_time = time.time()
time_taken = np.round((end_time - start_time), 2)
temp_df.loc[len(temp_df)] = [dataset, dataform, X_train.shape[1], str(i).split('.')[-1][:-2], r2, rmse, time_taken]
return temp_df

原始數(shù)據(jù):

original_df = train_test_ML('AirQualityUCI', 'Original', X_train, y_train, X_test, y_test)
original_df

圖片

可以看到KNN回歸器和隨機(jī)森林在輸入原始數(shù)據(jù)時(shí)表現(xiàn)相對(duì)較好,隨機(jī)森林的訓(xùn)練時(shí)間是最長(zhǎng)的。

PCA

pca_df = train_test_ML('AirQualityUCI', 'PCA Reduced', X_train_pca, y_train, X_test_pca, y_test)
pca_df

圖片

與原始數(shù)據(jù)集相比,不同模型的性能有不同程度的下降。梯度增強(qiáng)回歸和支持向量回歸在兩種情況下保持了一致性。這里一個(gè)主要的差異也是預(yù)期的是模型訓(xùn)練所花費(fèi)的時(shí)間。與其他模型不同的是,SVR在這兩種情況下花費(fèi)的時(shí)間差不多。

SVD

svd_df = train_test_ML('AirQualityUCI', 'SVD Reduced', X_train_svd, y_train, X_test_svd, y_test)
svd_df

與PCA相比,SVD以更大的比例降低了維度,隨機(jī)森林和梯度增強(qiáng)回歸器的表現(xiàn)相對(duì)優(yōu)于其他模型。

回歸模型分析

對(duì)于這個(gè)數(shù)據(jù)集,使用主成分分析時(shí),數(shù)據(jù)維數(shù)從12維降至5維,使用奇異值分析時(shí),數(shù)據(jù)降至3維。

  • 就機(jī)器學(xué)習(xí)性能而言,數(shù)據(jù)集的原始形式相對(duì)更好。造成這種情況的一個(gè)潛在原因可能是,當(dāng)我們使用這種技術(shù)降低維數(shù)時(shí),在這個(gè)過(guò)程中會(huì)發(fā)生信息損失。
  • 但是線性回歸、支持向量回歸和梯度增強(qiáng)回歸在原始和PCA案例中的表現(xiàn)是一致的。
  • 在我們通過(guò)SVD得到的數(shù)據(jù)上,所有模型的性能都下降了。
  • 在降維情況下,由于特征變量的維數(shù)較低,模型所花費(fèi)的時(shí)間減少了。

將類似的過(guò)程應(yīng)用于其他六個(gè)數(shù)據(jù)集進(jìn)行測(cè)試,得到以下結(jié)果:

圖片

我們?cè)诟鞣N數(shù)據(jù)集上使用了SVD和PCA,并對(duì)比了在原始高維特征空間上訓(xùn)練的回歸模型與在約簡(jiǎn)特征空間上訓(xùn)練的模型的有效性

  • 原始數(shù)據(jù)集始終優(yōu)于由降維方法創(chuàng)建的低維數(shù)據(jù)。這說(shuō)明在降維過(guò)程中可能丟失了一些信息。
  • 當(dāng)用于更大的數(shù)據(jù)集時(shí),降維方法有助于顯著減少數(shù)據(jù)集中的特征數(shù)量,從而提高機(jī)器學(xué)習(xí)模型的有效性。對(duì)于較小的數(shù)據(jù)集,改影響并不顯著。
  • 模型的性能在original和pca_reduced兩種模式下保持一致。如果一個(gè)模型在原始數(shù)據(jù)集上表現(xiàn)得更好,那么它在PCA模式下也會(huì)表現(xiàn)得更好。同樣,較差的模型也沒(méi)有得到改進(jìn)。
  • 在SVD的情況下,模型的性能下降比較明顯。這可能是n_components數(shù)量選擇的問(wèn)題,因?yàn)樘?shù)量肯定會(huì)丟失數(shù)據(jù)。
  • 決策樹在SVD數(shù)據(jù)集時(shí)一直是非常差的,因?yàn)樗緛?lái)就是一個(gè)弱學(xué)習(xí)器

訓(xùn)練分類模型

對(duì)于分類我們將使用另一種降維方法:LDA。機(jī)器學(xué)習(xí)和模式識(shí)別任務(wù)經(jīng)常使用被稱為線性判別分析(LDA)的降維方法。這種監(jiān)督學(xué)習(xí)技術(shù)旨在最大化幾個(gè)類或類別之間的距離,同時(shí)將數(shù)據(jù)投影到低維空間。由于它的作用是最大化類之間的差異,因此只能用于分類任務(wù)。

from sklearn.linear_model import LogisticRegression
from sklearn.neighbors import KNeighborsClassifier
from sklearn.svm import SVC
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import RandomForestClassifier, GradientBoostingClassifier
from sklearn.metrics import accuracy_score, f1_score, recall_score, precision_score

繼續(xù)我們的訓(xùn)練方法

def train_test_ML2(dataset, dataform, X_train, y_train, X_test, y_test):
temp_df = pd.DataFrame(columns=['Data Set', 'Data Form', 'Dimensions', 'Model', 'Accuracy', 'F1 Score', 'Recall', 'Precision', 'Time Taken'])
for i in [LogisticRegression, KNeighborsClassifier, SVC, DecisionTreeClassifier, RandomForestClassifier, GradientBoostingClassifier]:
start_time = time.time()
reg = i().fit(X_train, y_train)
y_pred = reg.predict(X_test)
accuracy = np.round(accuracy_score(y_test, y_pred), 2)
f1 = np.round(f1_score(y_test, y_pred, average='weighted'), 2)
recall = np.round(recall_score(y_test, y_pred, average='weighted'), 2)
precision = np.round(precision_score(y_test, y_pred, average='weighted'), 2)
end_time = time.time()
time_taken = np.round((end_time - start_time), 2)
temp_df.loc[len(temp_df)] = [dataset, dataform, X_train.shape[1], str(i).split('.')[-1][:-2], accuracy, f1, recall, precision, time_taken]
return temp_df

開始訓(xùn)練

from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

lda = LinearDiscriminantAnalysis()
X_train_lda = lda.fit_transform(X_train, y_train)
X_test_lda = lda.transform(X_test)

預(yù)處理、分割和數(shù)據(jù)集的縮放,都與回歸部分相同。在對(duì)8個(gè)不同的數(shù)據(jù)集進(jìn)行新聯(lián)后我們得到了下面結(jié)果:

分類模型分析

我們比較了上面所有的三種方法SVD、LDA和PCA。

  • LDA數(shù)據(jù)集通常優(yōu)于原始形式的數(shù)據(jù)和由其他降維方法創(chuàng)建的低維數(shù)據(jù),因?yàn)樗荚谧R(shí)別最有效區(qū)分類的特征的線性組合,而原始數(shù)據(jù)和其他無(wú)監(jiān)督降維技術(shù)不關(guān)心數(shù)據(jù)集的標(biāo)簽。
  • 降維技術(shù)在應(yīng)用于更大的數(shù)據(jù)集時(shí),可以極大地減少了數(shù)據(jù)集中的特征數(shù)量,這提高了機(jī)器學(xué)習(xí)模型的效率。在較小的數(shù)據(jù)集上,影響不是特別明顯。除了LDA(它在這些情況下也很有效),因?yàn)樗鼈冊(cè)谝恍┣闆r下,如二元分類,可以將數(shù)據(jù)集的維度減少到只有一個(gè)。
  • 當(dāng)我們?cè)趯ふ乙欢ǖ男阅軙r(shí),LDA可以是分類問(wèn)題的一個(gè)非常好的起點(diǎn)。
  • SVD與回歸一樣,模型的性能下降很明顯。需要調(diào)整n_components的選擇。

總結(jié)

我們比較了一些降維技術(shù)的性能,如奇異值分解(SVD)、主成分分析(PCA)和線性判別分析(LDA)。我們的研究結(jié)果表明,方法的選擇取決于特定的數(shù)據(jù)集和手頭的任務(wù)。

對(duì)于回歸任務(wù),我們發(fā)現(xiàn)PCA通常比SVD表現(xiàn)得更好。在分類的情況下,LDA優(yōu)于SVD和PCA,以及原始數(shù)據(jù)集。線性判別分析(LDA)在分類任務(wù)中始終擊敗主成分分析(PCA)的這個(gè)是很重要的,但這并不意味著LDA在一般情況下是一種更好的技術(shù)。這是因?yàn)長(zhǎng)DA是一種監(jiān)督學(xué)習(xí)算法,它依賴于有標(biāo)簽的數(shù)據(jù)來(lái)定位數(shù)據(jù)中最具鑒別性的特征,而PCA是一種無(wú)監(jiān)督技術(shù),它不需要有標(biāo)簽的數(shù)據(jù),并尋求在數(shù)據(jù)中保持盡可能多的方差。因此,PCA可能更適合于無(wú)監(jiān)督的任務(wù)或可解釋性至關(guān)重要的情況,而LDA可能更適合涉及標(biāo)記數(shù)據(jù)的任務(wù)。

雖然降維技術(shù)可以幫助減少數(shù)據(jù)集中的特征數(shù)量,并提高機(jī)器學(xué)習(xí)模型的效率,但重要的是要考慮對(duì)模型性能和結(jié)果可解釋性的潛在影響。

本文完整代碼:

https://github.com/salmankhi/DimensionalityReduction/blob/main/Notebook_25373.ipynb

責(zé)任編輯:華軒 來(lái)源: DeepHub IMBA
相關(guān)推薦

2020-08-11 10:25:38

數(shù)據(jù)成本數(shù)據(jù)大數(shù)據(jù)

2010-06-30 10:55:13

SQL Server日

2009-04-28 18:59:56

LinuxWindows體驗(yàn)

2019-12-12 15:32:48

ITvCenterVMware

2024-02-19 14:37:14

機(jī)器學(xué)習(xí)非線性降維

2020-03-25 11:21:22

軟件開發(fā)云計(jì)算降低成本

2021-05-31 09:41:17

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2020-11-18 09:26:52

@property裝飾器代碼

2016-12-01 18:57:39

火狐瀏覽器Firefox

2022-07-02 00:05:21

漏洞Debriked依賴樹

2018-03-14 10:51:00

數(shù)據(jù)庫(kù)容災(zāi)技術(shù)

2023-03-27 13:00:13

Javascript前端

2018-06-27 23:10:12

數(shù)據(jù)中心IT管理運(yùn)維

2024-09-26 10:44:53

MySQL數(shù)據(jù)庫(kù)數(shù)據(jù)

2022-07-05 08:41:56

數(shù)據(jù)安全工具安全備份

2019-09-09 06:50:14

mv命令移動(dòng)文件Linux

2016-12-28 19:16:55

大數(shù)據(jù)數(shù)據(jù)庫(kù)技術(shù)

2016-12-30 14:01:44

數(shù)據(jù)庫(kù)投入

2009-12-25 15:01:43

ADSL寬帶接入技術(shù)

2021-10-26 15:59:18

WiFi 6WiFi 5通信網(wǎng)絡(luò)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

成人免费看aa片| 免费的一级黄色片| 91麻豆视频在线观看| 欧美搞黄网站| 亚洲男人天堂网| 性猛交ⅹ×××乱大交| wwww在线观看免费视频| 国产片一区二区三区| 亚洲中国色老太| 无码人妻丰满熟妇精品 | 一区高清视频| 午夜视频www| 韩国成人在线视频| 日本成人激情视频| 国产在线视频你懂的| 久久久无码中文字幕久...| 久久亚洲电影天堂| 亚洲熟妇无码一区二区三区| 国产三级电影在线观看| 国产传媒日韩欧美成人| 日韩美女免费观看| 日本五十熟hd丰满| 五月天久久网站| 亚洲图片欧洲图片av| 扒开伸进免费视频| 国产麻豆精品| 欧美色综合网站| 91成人在线观看喷潮教学| 米奇777四色精品人人爽| 久久综合九色综合久久久精品综合| 亚洲精品免费在线视频| 波多野结衣电车| 一区二区毛片| 久久久亚洲精品视频| 欧美日韩生活片| 精品一区在线| 日韩电影视频免费| 久久久无码人妻精品无码| 成人在线观看免费播放| 色素色在线综合| 青青艹视频在线| 丁香花电影在线观看完整版 | jizzjizzjizz国产| 天天操天天摸天天干| 蜜桃av噜噜一区二区三区麻豆| 日韩中文字幕1| 欧美夜福利tv在线| 久久久久久久久久久久久久av| 韩日成人在线| 欧美激情免费视频| 久久久美女视频| 欧美精品色网| 欧美久久精品午夜青青大伊人| 美女三级黄色片| 97精品国产一区二区三区| 一区二区亚洲欧洲国产日韩| 国产精品815.cc红桃| 色综合久久中文| 亚洲开心激情网| 最近中文字幕免费视频| 欧美久久综合网| 在线日韩欧美视频| 国产精品1区2区3区4区| 99热国内精品| 蜜月aⅴ免费一区二区三区| 午夜爱爱毛片xxxx视频免费看| 99精品视频在线观看播放| www.欧美三级电影.com| 婷婷伊人五月天| 欧美日本一区二区高清播放视频| 欧美高清自拍一区| 91av在线免费视频| 日韩成人精品在线| 91欧美精品成人综合在线观看| 国产xxxx在线观看| 成人黄色国产精品网站大全在线免费观看| 国产精品一区二区三区观看| 神马午夜一区二区| 国产日韩在线不卡| 在线成人av电影| 国产三线在线| 色88888久久久久久影院按摩| 亚洲少妇第一页| 中文字幕日本一区| 精品盗摄一区二区三区| 亚洲 欧美 日韩在线| 久久av中文| www.日韩av.com| 国产一级免费av| 久久久久.com| 成人在线播放av| 日本高清视频免费看| 久久精品一区二区三区不卡牛牛 | 亚洲人精品午夜射精日韩 | 懂色aⅴ精品一区二区三区蜜月| av天堂永久资源网| 国产日本亚洲| 亚洲精品视频在线观看视频| 粉嫩精品久久99综合一区| 亚洲一级二级| 国产精品人成电影| 人妻一区二区三区| 国产精品福利电影一区二区三区四区| 青春草国产视频| 国产精品99精品一区二区三区∴| 精品国产免费视频| 久艹在线观看视频| 久久久久久黄| 国产日韩欧美亚洲一区| 日本最黄一级片免费在线| 天天色天天爱天天射综合| 日韩视频在线观看一区二区三区| 伊人久久综合影院| 欧美激情影音先锋| 国产精品无码久久av| 国产亚洲福利社区一区| 欧美一级视频免费看| 99国内精品久久久久| 亚洲跨种族黑人xxx| 青青草免费av| 久国产精品韩国三级视频| 欧美一区二区三区成人久久片 | 超碰91在线播放| 成人高清av| 日韩美女免费线视频| 午夜成人免费影院| 亚洲无人区一区| 中文字幕一二三| 天天做天天爱综合| 国产精品久久久久久久久久久久久| 黑人乱码一区二区三区av| 日韩美女视频一区| 天堂av8在线| 久久人人88| 国产精品视频网| 国产在线资源| 日韩欧美一区二区在线| 国产制服丝袜在线| av成人激情| 国产在线视频欧美一区二区三区| 操喷在线视频| 精品国产露脸精彩对白| 国产网友自拍视频| 国产一区二区三区免费看| 亚洲国产综合自拍| 国产一区高清| 色婷婷综合久久久久中文字幕1| 五月天激情四射| 久久久久9999亚洲精品| 91视频免费版污| 久久国产亚洲| 国产欧美日韩高清| 午夜视频成人| 欧美一区二区三区系列电影| 卡通动漫亚洲综合| 国产精品一区二区三区四区 | 在线观看a级片| 538在线一区二区精品国产| www.av免费| 国产一区二区91| 青青青在线观看视频| 爱高潮www亚洲精品| 国语自产精品视频在线看抢先版图片| 人妻无码中文字幕免费视频蜜桃| 五月天视频一区| 国产交换配乱淫视频免费| 三级影片在线观看欧美日韩一区二区| 色噜噜狠狠一区二区三区| 成人在线视频免费| 久久97精品久久久久久久不卡| 精品乱子伦一区二区| 亚洲成人动漫精品| 中文字幕第20页| 黄色精品一二区| 免费网站在线观看视频| 香蕉久久夜色精品国产更新时间| 国产成人精品视频| www.欧美日本韩国| 日韩av在线资源| 亚洲视频久久久| 一卡二卡三卡日韩欧美| 欧美一区二区三区成人精品| 美腿丝袜一区二区三区| 欧美大黑帍在线播放| 亚洲人成亚洲精品| 国产精品直播网红| 岛国av在线播放| 中文字幕精品av| 丰满肉嫩西川结衣av| 欧美亚洲一区二区在线观看| 欧美成人三级视频| 国产色婷婷亚洲99精品小说| 992tv人人草| 国产精品美女| 超碰超碰超碰超碰超碰| 奇米亚洲欧美| 波多野结衣一区二区三区在线观看| 亚洲黄色免费看| 成年无码av片在线| 国产永久免费高清在线观看| 精品奇米国产一区二区三区| 亚洲色成人www永久网站| 一区二区三区中文免费| 亚洲天堂岛国片| av在线播放一区二区三区| 午夜av中文字幕| 天堂久久久久va久久久久| 久久久天堂国产精品| 激情五月综合| 狠狠色狠狠色综合人人| 精品午夜视频| 国产欧美日韩丝袜精品一区| 黄视频网站在线观看| 美女少妇精品视频| 日本中文字幕在线看| 亚洲欧美激情一区| 欧洲成人一区二区三区| 在线播放中文字幕一区| 青青草视频在线观看免费| 亚洲国产精品视频| 亚洲熟女www一区二区三区| 国产精品视频线看| wwwwww日本| 99久久久无码国产精品| 人妻精油按摩bd高清中文字幕| 免费成人av资源网| 99热手机在线| 久久久久91| 欧美v在线观看| 亚洲精品黄色| 天堂8在线天堂资源bt| 亚洲破处大片| 中文字幕在线观看一区二区三区| 欧美日韩伦理| 日韩电影在线播放| 精品在线99| 日本福利一区二区三区| 图片婷婷一区| 久久人人九九| 五月天亚洲色图| 精品一区在线播放| 色狠狠久久av综合| 久久国产精品 国产精品| 精品深夜福利视频| 黄色国产精品一区二区三区| 国产精品2023| 精品一区在线播放| 亚洲人成精品久久久| 欧美在线视频二区| 欧美日韩老妇| 国产91av视频在线观看| 99热精品久久| www.xxx麻豆| 99热这里只有成人精品国产| 免费成人在线视频网站| 亚洲欧美日韩国产一区| 激情五月开心婷婷| 奇米综合一区二区三区精品视频| 中文av一区二区三区| 精品在线播放免费| 18深夜在线观看免费视频| 国产一区二区三区在线观看精品| av在线免费观看不卡| 高潮精品一区videoshd| 亚洲中文字幕无码av| 久久无码av三级| 波兰性xxxxx极品hd| 亚洲日本丝袜连裤袜办公室| 久草视频精品在线| 色老综合老女人久久久| 国产又大又黑又粗| 亚洲第一男人天堂| 成人不用播放器| 不卡av在线播放| 欧美裸体视频| 国产精品亚洲一区二区三区| 国语精品视频| 久久爱av电影| 五月精品视频| 欧美成人xxxxx| 久久99精品国产麻豆不卡| 美女搡bbb又爽又猛又黄www| 久久久久久久久99精品| 亚洲伦理一区二区三区| 五月综合激情日本mⅴ| 中文字幕免费高清网站| 欧美一级片免费看| 国产精品国产高清国产| www.久久久久久.com| 理论片午夜视频在线观看| 国产日韩在线观看av| 99精品在免费线中文字幕网站一区| 另类欧美小说| 一区二区在线影院| 欧美精品第三页| 国产成人在线视频网站| 性猛交娇小69hd| 亚洲成人久久影院| 国产精品高潮呻吟AV无码| 日韩精品亚洲精品| 4438x成人网全国最大| 国产精品第10页| 国产一区二区三区不卡av| 伊人情人网综合| 蜜乳av另类精品一区二区| 日本中文字幕精品| 国产精品毛片大码女人| 国产一级18片视频| 精品久久久久一区二区国产| 成年人免费在线视频| 国内精品久久久久久久久| 图片一区二区| 手机看片福利永久国产日韩| 99综合在线| 伊人久久一区二区三区| 亚洲欧美一区二区三区久本道91| 久久精品99北条麻妃| 亚洲精品美女在线| 久久大胆人体| 91亚色免费| 91精品国产调教在线观看| 国产一区视频免费观看| 久久综合九色综合97婷婷女人 | 欧美在线|欧美| 日本人妖在线| 欧美激情视频在线观看| 自拍偷拍亚洲图片| 亚洲国产高清国产精品| 久久激情综合| 无码人妻精品一区二区三区温州| 亚洲免费观看高清完整版在线| 亚洲在线精品视频| 最近2019年好看中文字幕视频| 成人日韩精品| 欧美一区二视频在线免费观看| 国产精品日本| 国产精品无码一区二区三区免费| 午夜精品aaa| 午夜小视频免费| 91成人福利在线| 婷婷精品视频| 99视频在线免费| 国产拍欧美日韩视频二区| 中文字幕精品视频在线观看| 亚洲片av在线| 久久精品黄色| 中文字幕人成一区| 国产在线不卡一区| 青草影院在线观看| 日韩精品中文字幕一区| 青青青国内视频在线观看软件| 懂色av一区二区三区在线播放| 一区在线免费观看| 中文字幕日韩三级片| 91成人免费电影| 视频免费一区| 亚洲最大成人网色| 激情久久久久久久| 欧美亚一区二区三区| 在线观看欧美黄色| 欧美激情午夜| 国产精品一区二区免费看| 国产一区成人| 亚洲a∨无码无在线观看| 欧美一级在线视频| 国产高清视频色在线www| 欧美二区在线看| 免费视频最近日韩| 欧美卡一卡二卡三| 日韩精品在线免费观看视频| 欧美成人免费电影| 一区二区三区四区免费观看| 成人av在线播放网站| 无码人妻精品一区二区| 精品国产一区二区三区久久久| 91成人短视频| 日本女优爱爱视频| 亚洲黄色小视频| 日韩a级作爱片一二三区免费观看| 国产精品久久一| 欧美体内she精视频在线观看| 亚洲第一页av| 91精品国产综合久久香蕉麻豆| av第一福利在线导航| 日本一区二区三区免费看| 国产精品一区二区黑丝| 天堂网中文字幕| 欧美精品情趣视频| 精品国产1区| 乱码一区二区三区| 在线视频你懂得一区二区三区| 中文在线免费| 日韩久久精品一区二区三区| 国产91在线|亚洲| 中文字幕日韩第一页| 136fldh精品导航福利| 亚洲成人最新网站| 成人片黄网站色大片免费毛片| 欧美成人精品1314www| www.成人在线视频|