精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

數(shù)據(jù)科學(xué):AdaBoost分類器

大數(shù)據(jù)
在本文中,我們討論了理解AdaBoost算法的各種方法.AdaBoost就像是一個(gè)恩賜,如果正確使用它可以提高分類算法的準(zhǔn)確性。

[[328383]]

介紹:

  • Boosting是一種集成技術(shù),用于從多個(gè)弱分類器創(chuàng)建強(qiáng)分類器。 集成技術(shù)的一個(gè)眾所周知的例子是隨機(jī)森林(Random Forest),它使用多個(gè)決策樹(shù)來(lái)創(chuàng)建一個(gè)隨機(jī)森林。

直覺(jué):

  • AdaBoost,Adaptive Boosting的縮寫,是第一個(gè)成功的針對(duì)二進(jìn)制分類開(kāi)發(fā)的Boosting算法。它是一種監(jiān)督式機(jī)器學(xué)習(xí)算法,用于提高任何機(jī)器學(xué)習(xí)算法的性能。 最好與像決策樹(shù)這樣的弱學(xué)習(xí)者一起使用。 這些模型在分類問(wèn)題上的準(zhǔn)確性要高于隨機(jī)機(jī)會(huì)。

AdaBoost的概念很簡(jiǎn)單:

  • 我們將把數(shù)據(jù)集傳遞給多個(gè)基礎(chǔ)學(xué)習(xí)者,每個(gè)基礎(chǔ)學(xué)習(xí)者將嘗試更正其前輩分類錯(cuò)誤的記錄。

我們會(huì)將數(shù)據(jù)集(如下所示,所有行)傳遞給Base Learner1。所有被Base Learner 1誤分類的記錄(行5,6和7被錯(cuò)誤分類)將被傳遞給Base Learner 2,類似地,所有Base分類器的錯(cuò)誤分類記錄 學(xué)習(xí)者2將被傳遞給基本學(xué)習(xí)者3。最后,根據(jù)每個(gè)基本學(xué)習(xí)者的多數(shù)票,我們將對(duì)新記錄進(jìn)行分類。

 

數(shù)據(jù)科學(xué):AdaBoost分類器

讓我們逐步了解AdaBoost分類器的實(shí)現(xiàn):

步驟1:獲取數(shù)據(jù)集,并將初始權(quán)重分配給指定數(shù)據(jù)集中的所有樣本(行)。

W = 1 / n => 1/7,其中n是樣本數(shù)。

 

數(shù)據(jù)科學(xué):AdaBoost分類器

步驟2:我們將創(chuàng)建第一個(gè)基礎(chǔ)學(xué)習(xí)器。在AdaBoost中,我們將決策樹(shù)用作基礎(chǔ)學(xué)習(xí)器。這里要注意的是,我們將僅創(chuàng)建深度為1的決策樹(shù),它們被稱為決策樹(shù)樁或樹(shù)樁。

 

數(shù)據(jù)科學(xué):AdaBoost分類器

我們將為數(shù)據(jù)集的每個(gè)特征創(chuàng)建一個(gè)樹(shù)樁,就像在我們的例子中,我們將創(chuàng)建三個(gè)樹(shù)樁,每個(gè)特征一個(gè)。

步驟3:我們需要根據(jù)每個(gè)特征的熵值或吉尼系數(shù),選擇任何基礎(chǔ)學(xué)習(xí)器模型(為特征1創(chuàng)建的基礎(chǔ)學(xué)習(xí)器1,為特征2創(chuàng)建的基礎(chǔ)學(xué)習(xí)器2,為特征3創(chuàng)建的基礎(chǔ)學(xué)習(xí)器3) (我在決策樹(shù)文章中已經(jīng)討論了Ginni和熵)。

熵或吉尼系數(shù)值最小的基礎(chǔ)學(xué)習(xí)器,我們將為第一個(gè)基礎(chǔ)學(xué)習(xí)器模型選擇該模型。

第4步:我們需要找到在第3步中選擇的基本學(xué)習(xí)者模型正確分類了多少條記錄以及錯(cuò)誤分類了多少條記錄。

我們必須找到所有錯(cuò)誤分類的總錯(cuò)誤,讓我們說(shuō)我們是否正確分類了4條記錄而錯(cuò)誤分類了1條記錄

Total Error =分類錯(cuò)誤的記錄的樣本權(quán)重的總和。

因?yàn)槲覀冎挥?個(gè)錯(cuò)誤,所以總錯(cuò)誤= 1/7

步驟5:通過(guò)以下公式檢查樹(shù)樁的性能。

 

數(shù)據(jù)科學(xué):AdaBoost分類器

當(dāng)我們將Total Error放入該公式時(shí),我們將得到0.895的值(不要偷懶地將這些值進(jìn)行計(jì)算)

通過(guò)以下等式更新正確和錯(cuò)誤分類的樣本(行)的樣本權(quán)重。

錯(cuò)誤分類的樣本的新樣本權(quán)重=

 

數(shù)據(jù)科學(xué):AdaBoost分類器

 

數(shù)據(jù)科學(xué):AdaBoost分類器

正確分類的樣本的新樣本權(quán)重=

 

數(shù)據(jù)科學(xué):AdaBoost分類器

 

數(shù)據(jù)科學(xué):AdaBoost分類器

 

數(shù)據(jù)科學(xué):AdaBoost分類器

注意:我們假設(shè)第3行的分類不正確

步驟6:我們?cè)谶@里考慮的要點(diǎn)是,當(dāng)我們將所有樣本權(quán)重相加時(shí),它等于1,但如果更新了權(quán)重,則總和不等于1。因此,我們將每個(gè)更新的權(quán)重除以總和,然后歸一化 值為1。

更新權(quán)重的總和是0.68

 

數(shù)據(jù)科學(xué):AdaBoost分類器

第7步:我們將通過(guò)刪除"樣品重量"和"更新重量"功能來(lái)創(chuàng)建數(shù)據(jù)集,并將每個(gè)樣品(行)分配到一個(gè)桶中。

 

數(shù)據(jù)科學(xué):AdaBoost分類器

步驟8:建立新的資料集。 為此,我們必須從0到1(對(duì)于每個(gè)樣本(行))中隨機(jī)選擇一個(gè)值,然后選擇該樣本,該樣本在" Bucket"下掉落,并將該樣本保留在" NEW DATASET"中。 由于分類錯(cuò)誤的記錄具有較大的存儲(chǔ)桶大小,因此選擇該記錄的可能性非常高。

 

數(shù)據(jù)科學(xué):AdaBoost分類器

我們?cè)谶@里可以看到,由于數(shù)據(jù)桶大小比其他行大,因此已在我們的數(shù)據(jù)集中選擇了3次錯(cuò)誤分類的record(Row3)。

第9步:為下一個(gè)樹(shù)樁(基礎(chǔ)學(xué)習(xí)者2,基礎(chǔ)學(xué)習(xí)者3)獲取此新數(shù)據(jù)集,并按照步驟1至8進(jìn)行所有功能。

Adaboost模型通過(guò)讓森林中的每棵樹(shù)對(duì)樣本進(jìn)行分類來(lái)進(jìn)行預(yù)測(cè)。然后,根據(jù)樹(shù)木的決策將它們分成幾組。現(xiàn)在,對(duì)于每組,我們對(duì)各樹(shù)中每棵樹(shù)的重要性進(jìn)行累加。 整個(gè)森林的數(shù)量由總和最大的群體決定。下圖。

 

數(shù)據(jù)科學(xué):AdaBoost分類器

Adaboost分類器的逐步Python代碼:

  1. In [1]: 
  2. #General idea behind boosting methods is to train predictors sequentially,each trying to correct its predecessor 
  3.  
  4. # AdaBoost Classifier Example In Python 
  5. # Step 1: Initialize the sample weights 
  6. # Step 2: Build a decision tree with each feature, classify the data and evaluate the result 
  7. # Step 3: Calculate the significance of the tree in the final classification 
  8. # Step 4: Update the sample weights so that the next decision tree will take the errors made by the preceding decision tree into account 
  9. # Step 5: Form a new dataset 
  10. # Step 6: Repeat steps 2 through 5 until the number of iterations equals the number specified by the hyperparameter (i.e. number of estimators) 
  11. # Step 7: Use the forest of decision trees to make predictions on data outside of the training set 
  12. In [2]: 
  13. from sklearn.ensemble import AdaBoostClassifier 
  14. from sklearn.tree import DecisionTreeClassifier 
  15. from sklearn.datasets import load_breast_cancer 
  16. import pandas as pd 
  17. import numpy as np 
  18. import seaborn as sns 
  19. import matplotlib.pyplot as plt 
  20. from sklearn.model_selection import train_test_split 
  21. from sklearn.metrics import confusion_matrix,accuracy_score 
  22. from sklearn.preprocessing import LabelEncoder 
  23. import warnings 
  24. warnings.filterwarnings('ignore'
  25. In [3]: 
  26. cancer_data=load_breast_cancer() 
  27. In [4]: 
  28. X=pd.DataFrame(cancer_data.data,columns=cancer_data.feature_names) 
  29. In [5]: 
  30. y = pd.Categorical.from_codes(cancer_data.target, cancer_data.target_names) 
  31. In [6]: 
  32. #y=pd.DataFrame(y,columns=['Cancer_Target']) 
  33. Data Preprocessing 
  34. In [7]: 
  35. X.describe() 
  36. Out[7]: 
  37. mean radius mean texture    mean perimeter  mean area   mean smoothness mean compactness    mean concavity  mean concave points mean symmetry   mean fractal dimension  ... worst radius    worst texture   worst perimeter worst area  worst smoothness    worst compactness   worst concavity worst concave points    worst symmetry  worst fractal dimension 
  38. count   569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  ... 569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  569.000000  569.000000 
  39. mean    14.127292   19.289649   91.969033   654.889104  0.096360    0.104341    0.088799    0.048919    0.181162    0.062798    ... 16.269190   25.677223   107.261213  880.583128  0.132369    0.254265    0.272188    0.114606    0.290076    0.083946 
  40. std 3.524049    4.301036    24.298981   351.914129  0.014064    0.052813    0.079720    0.038803    0.027414    0.007060    ... 4.833242    6.146258    33.602542   569.356993  0.022832    0.157336    0.208624    0.065732    0.061867    0.018061 
  41. min 6.981000    9.710000    43.790000   143.500000  0.052630    0.019380    0.000000    0.000000    0.106000    0.049960    ... 7.930000    12.020000   50.410000   185.200000  0.071170    0.027290    0.000000    0.000000    0.156500    0.055040 
  42. 25% 11.700000   16.170000   75.170000   420.300000  0.086370    0.064920    0.029560    0.020310    0.161900    0.057700    ... 13.010000   21.080000   84.110000   515.300000  0.116600    0.147200    0.114500    0.064930    0.250400    0.071460 
  43. 50% 13.370000   18.840000   86.240000   551.100000  0.095870    0.092630    0.061540    0.033500    0.179200    0.061540    ... 14.970000   25.410000   97.660000   686.500000  0.131300    0.211900    0.226700    0.099930    0.282200    0.080040 
  44. 75% 15.780000   21.800000   104.100000  782.700000  0.105300    0.130400    0.130700    0.074000    0.195700    0.066120    ... 18.790000   29.720000   125.400000  1084.000000 0.146000    0.339100    0.382900    0.161400    0.317900    0.092080 
  45. max 28.110000   39.280000   188.500000  2501.000000 0.163400    0.345400    0.426800    0.201200    0.304000    0.097440    ... 36.040000   49.540000   251.200000  4254.000000 0.222600    1.058000    1.252000    0.291000    0.663800    0.207500 
  46. rows × 30 columns 
  47.  
  48. In [8]: 
  49. X.isnull().count() 
  50. Out[8]: 
  51. mean radius                569 
  52. mean texture               569 
  53. mean perimeter             569 
  54. mean area                  569 
  55. mean smoothness            569 
  56. mean compactness           569 
  57. mean concavity             569 
  58. mean concave points        569 
  59. mean symmetry              569 
  60. mean fractal dimension     569 
  61. radius error               569 
  62. texture error              569 
  63. perimeter error            569 
  64. area error                 569 
  65. smoothness error           569 
  66. compactness error          569 
  67. concavity error            569 
  68. concave points error       569 
  69. symmetry error             569 
  70. fractal dimension error    569 
  71. worst radius               569 
  72. worst texture              569 
  73. worst perimeter            569 
  74. worst area                 569 
  75. worst smoothness           569 
  76. worst compactness          569 
  77. worst concavity            569 
  78. worst concave points       569 
  79. worst symmetry             569 
  80. worst fractal dimension    569 
  81. dtype: int64 
  82. In [9]: 
  83. def heatMap(df): 
  84.     #Create Correlation df 
  85.     corr = X.corr() 
  86.     #Plot figsize 
  87.     fig, ax = plt.subplots(figsize=(25, 25)) 
  88.     #Generate Color Map 
  89.     colormap = sns.diverging_palette(220, 10, as_cmap=True
  90.     #Generate Heat Map, allow annotations and place floats in map 
  91.     sns.heatmap(corr, cmap=colormap, annot=True, fmt=".2f"
  92.     #Apply xticks 
  93.     plt.xticks(range(len(corr.columns)), corr.columns); 
  94.     #Apply yticks 
  95.     plt.yticks(range(len(corr.columns)), corr.columns) 
  96.     #show plot 
  97.     plt.show() 
  98. In [10]: 
  99. heatMap(X) 
  100.  
  101. All the above correlated features can be dropped 
  102. In [11]: 
  103. X.boxplot(figsize=(10,15)) 
  104. Out[11]: 
  105. <matplotlib.axes._subplots.AxesSubplot at 0x1e1a0eb7fd0> 
  106.  
  107. In [12]: 
  108. le=LabelEncoder() 
  109. In [13]: 
  110. y=pd.Series(le.fit_transform(y)) 
  111. Data Split and Model Initialization 
  112. In [14]: 
  113. X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.20,random_state=42) 
  114. In [15]: 
  115. adaboost=AdaBoostClassifier(DecisionTreeClassifier(max_depth=1),n_estimators=200) 
  116. In [16]: 
  117. adaboost.fit(X_train,y_train) 
  118. Out[16]: 
  119. AdaBoostClassifier(algorithm='SAMME.R'
  120.           base_estimator=DecisionTreeClassifier(class_weight=None, criterion='gini', max_depth=1, 
  121.             max_features=None, max_leaf_nodes=None, 
  122.             min_impurity_decrease=0.0, min_impurity_split=None, 
  123.             min_samples_leaf=1, min_samples_split=2, 
  124.             min_weight_fraction_leaf=0.0, presort=False, random_state=None, 
  125.             splitter='best'), 
  126.           learning_rate=1.0, n_estimators=200, random_state=None) 
  127. In [17]: 
  128. adaboost.score(X_train,y_train) 
  129. Out[17]: 
  130. 1.0 
  131. In [18]: 
  132. adaboost.score(X_test,y_test) 
  133. Out[18]: 
  134. 0.9736842105263158 
  135. In [19]: 
  136. y_pred=adaboost.predict(X_test) 
  137. In [20]: 
  138. y_pred 
  139. Out[20]: 
  140. array([0, 1, 1, 0, 0, 1, 1, 1, 1, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 1, 0, 0, 
  141.        1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 0, 1, 0, 0, 
  142.        0, 0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 0, 
  143.        1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, 1, 1, 1, 1, 1, 1, 
  144.        0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 0, 1, 1, 0, 1, 1, 0, 0, 0, 1, 0, 0, 
  145.        1, 0, 0, 1]) 
  146. Result Visualization 
  147. In [21]: 
  148. cm=confusion_matrix(y_test,y_pred) 
  149. print('Confusion Matrix\n {} '.format(cm)) 
  150. Confusion Matrix 
  151.  [[70  1] 
  152.  [ 2 41]]  
  153. In [22]: 
  154. ax= plt.subplot() 
  155. sns.heatmap(cm, annot=True, ax = ax); 
  156. # labels, title and ticks 
  157. ax.set_xlabel('Predicted labels'); 
  158. ax.set_ylabel('True labels');  
  159. ax.set_title('Confusion Matrix'); 
  160.  
  161. In [23]: 
  162. acc=accuracy_score(y_test,y_pred) 
  163. print('Model Accuracy is {} % '.format(round(acc,3))) 
  164. Model Accuracy is 0.974 %  

AdaBoost分類器的優(yōu)點(diǎn):

  • AdaBoost可用于提高弱分類器的準(zhǔn)確性,從而使其更靈活。 現(xiàn)在,它已擴(kuò)展到二進(jìn)制分類之外,并且還發(fā)現(xiàn)了文本和圖像分類中的用例。
  • AdaBoost具有很高的精度。
  • 不同的分類算法可以用作弱分類器。

缺點(diǎn):

  • 提升技巧是逐步學(xué)習(xí)的,確保您擁有高質(zhì)量的數(shù)據(jù)非常重要。
  • AdaBoost對(duì)噪聲數(shù)據(jù)和異常值也非常敏感,因此,如果您打算使用AdaBoost,則強(qiáng)烈建議消除它們。
  • AdaBoost還被證明比XGBoost慢。

結(jié)論:在本文中,我們討論了理解AdaBoost算法的各種方法.AdaBoost就像是一個(gè)恩賜,如果正確使用它可以提高分類算法的準(zhǔn)確性。

希望您喜歡我的文章。請(qǐng)鼓掌(最多50次),這會(huì)激發(fā)我寫更多的文章。

責(zé)任編輯:未麗燕 來(lái)源: 今日頭條
相關(guān)推薦

2024-11-20 08:29:26

2018-04-16 12:14:34

數(shù)據(jù)科學(xué)機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2022-08-19 07:38:51

數(shù)據(jù)備份系統(tǒng)存儲(chǔ)

2018-04-16 11:11:56

2020-05-27 11:16:49

數(shù)據(jù)科學(xué)機(jī)器學(xué)習(xí)Python

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學(xué)家

2016-10-21 19:24:35

數(shù)據(jù)科學(xué)家數(shù)據(jù)科學(xué)

2022-11-14 10:36:55

數(shù)據(jù)科學(xué)數(shù)據(jù)分析

2015-06-11 10:27:29

數(shù)據(jù)科學(xué)家

2018-06-29 16:00:56

數(shù)據(jù)科學(xué)家數(shù)據(jù)清理數(shù)據(jù)分析

2023-10-16 10:25:34

數(shù)據(jù)科學(xué)大數(shù)據(jù)

2019-09-30 09:10:11

Python編程語(yǔ)言數(shù)據(jù)科學(xué)

2024-12-09 09:44:34

機(jī)器學(xué)習(xí)模型分類器

2015-07-23 14:53:50

貝葉斯分類器

2020-10-25 20:00:18

數(shù)據(jù)科學(xué)數(shù)據(jù)科學(xué)家

2019-08-27 09:34:29

數(shù)據(jù)科學(xué)統(tǒng)計(jì)機(jī)器學(xué)習(xí)

2019-05-07 19:12:28

機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)Python

2021-01-03 10:27:43

數(shù)據(jù)科學(xué)技術(shù)

2023-01-10 14:59:09

2018-12-18 13:32:37

方差分析數(shù)據(jù)分析教育
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

91在线视频成人| 日韩一区二区三区xxxx| 女性女同性aⅴ免费观女性恋 | 麻豆久久婷婷| 亚洲人成亚洲人成在线观看| www.国产福利| 黄色视屏在线免费观看| 久久人人爽爽爽人久久久| 国产精品入口免费视| 青青草原在线免费观看视频| 日本午夜精品| 91精品国产91热久久久做人人| 久久国产精品网| av二区在线| 99精品欧美一区二区三区综合在线| 国产精品高潮呻吟视频 | 欧美视频免费在线观看| 中国一区二区三区| 亚洲 精品 综合 精品 自拍| 久久国内精品自在自线400部| 欧美国产高跟鞋裸体秀xxxhd| 天天操天天干天天操天天干| а√中文在线天堂精品| 欧美日韩国产另类一区| 久久久久久久久久久久久国产精品| 黄色网页在线免费看| 久久这里都是精品| 国产精品一区二区欧美黑人喷潮水| 中文字幕+乱码+中文乱码91| 亚洲国内自拍| 欧美福利小视频| 北条麻妃在线观看视频| 国产一区二区三区电影在线观看| 亚洲成人激情在线| 精品国产午夜福利在线观看| 国产黄色一区| 在线观看免费亚洲| 久久久精品在线视频| 国产拍在线视频| 亚洲小说欧美激情另类| 日本老太婆做爰视频| 男人天堂手机在线| 国产精品色呦呦| 欧美精品亚洲精品| 四虎影视2018在线播放alocalhost| 国产成人免费在线视频| 亚洲最大激情中文字幕| 国产精品久久久久久久成人午夜| 奇米888四色在线精品| 国产成人精品一区二区在线 | 99亚洲一区二区| 国外成人在线直播| 日韩乱码在线观看| 亚洲精品三级| 97在线视频免费观看| 国产精彩视频在线观看| 亚洲大片av| 国模视频一区二区三区| 国内免费精品视频| 亚洲尤物在线| 国产福利成人在线| 中文字幕一区二区三区波野结| 蜜臀av一级做a爰片久久| 国产精品视频网站| 国产精品综合在线| 国产精品一品二品| 国产精品免费视频一区二区| 天天摸夜夜添狠狠添婷婷| 波多野结衣视频一区| 久久青青草综合| 狠狠色伊人亚洲综合网站l| 国产色产综合产在线视频| 日韩亚洲欧美精品| 欧美成人三区| 一区二区三区在线看| 日韩小视频网站| 涩涩网在线视频| 在线视频一区二区三区| 女人高潮一级片| 91国内精品| 亚洲美女激情视频| 久久精品国产亚洲AV成人婷婷| 亚洲最新av| 97久久伊人激情网| 日本成人一级片| 国产美女视频一区| 久久riav二区三区| avav免费在线观看| 一区二区三区蜜桃网| 久久久999视频| 91成人小视频| 亚洲黄色www| 美女网站视频色| 亚洲黄色天堂| 国产欧美一区二区三区久久| 不卡视频免费在线观看| 99re66热这里只有精品3直播 | 香蕉视频在线看| 亚洲福利视频一区二区| www.99av.com| 精品人人人人| 日韩在线资源网| 久久久精品免费看| 国产一区二区女| 青青草久久网络| 免费在线国产视频| 欧美日韩大陆在线| 插吧插吧综合网| 欧美激情自拍| 成人疯狂猛交xxx| 三级黄视频在线观看| 亚洲精品乱码久久久久| 三级在线免费看| 天堂99x99es久久精品免费| 久久色精品视频| 午夜精品免费观看| www.欧美色图| 四虎4hu永久免费入口| 亚洲欧美在线成人| 日韩精品中文字幕在线观看| avtt天堂在线| 激情五月播播久久久精品| 欧美日韩免费观看一区| 91在线超碰| 欧美日本在线播放| 国产综合精品在线| 国产精品亚洲欧美| 国产偷国产偷亚洲高清97cao| 麻豆网站视频在线观看| 欧美午夜在线一二页| 中文人妻一区二区三区| 亚洲伦理精品| 国产成人亚洲欧美| 性xxxxfjsxxxxx欧美| 538在线一区二区精品国产| 欧美日韩国产黄色| 日韩精品欧美精品| 日韩av一区二区三区美女毛片| 川上优av中文字幕一区二区| 欧美va亚洲va香蕉在线| www.5588.com毛片| 国产自产高清不卡| 99精品一区二区三区的区别| 不卡精品视频| 久久国产精品影视| 国产日产亚洲系列最新| 一区在线观看免费| 五月天婷婷在线观看视频| 亚洲澳门在线| 亚洲一区二区三区乱码aⅴ蜜桃女| 午夜看片在线免费| 3d成人动漫网站| 国产精品久久久久久久精| 国产自产2019最新不卡| wwwjizzjizzcom| 97一区二区国产好的精华液| 欧美激情亚洲一区| 婷婷久久久久久| 精品久久久久久中文字幕大豆网| 国产精品成人99一区无码 | 国产丝袜在线精品| 午夜视频你懂的| 91久久久精品国产| 91精品网站| av日韩中文| 亚洲欧美国产日韩中文字幕| 日本三级一区二区三区| 国产精品白丝在线| 91精品视频国产| 亚洲国产日韩在线| 日本在线播放一区| 视频精品导航| 欧美理论电影在线播放| 少妇人妻精品一区二区三区| 色婷婷综合激情| 黄色录像免费观看| 风流少妇一区二区| 日韩精品免费播放| 国产精品福利在线观看播放| 成人在线免费观看一区| sis001欧美| 久久伊人精品天天| 亚洲av成人精品毛片| 精品视频在线免费观看| 久草资源在线视频| 国产欧美日韩综合| 国产一级片中文字幕| 99精品免费网| 亚洲一区二区三区精品视频| 亚洲国产欧美国产第一区| 7777精品久久久久久| 免费网站成人| 日韩久久午夜影院| 99视频国产精品免费观看a| 精品国产福利视频| 91视频青青草| 国产性天天综合网| 日本天堂在线播放| 青青国产91久久久久久| 国产一区二区四区| 日韩欧美1区| 精品国产乱码一区二区三区四区| 国产成+人+综合+亚洲欧美| 久久久在线免费观看| melody高清在线观看| 亚洲成人黄色在线| 国产普通话bbwbbwbbw| 色婷婷狠狠综合| 日本少妇在线观看| 亚洲免费高清视频在线| 99精品欧美一区二区| 成人国产精品视频| 超碰91在线播放| 麻豆精品精品国产自在97香蕉 | 国产1区2区3区4区| 国产精品久线观看视频| 欧美一区二区三区成人精品| 国产大陆精品国产| 尤物国产在线观看| 亚洲综合精品| 加勒比成人在线| 亚洲区综合中文字幕日日| 日韩欧美精品一区二区| 欧美激情99| 97夜夜澡人人双人人人喊| 美女视频一区| 国产精品久久综合av爱欲tv| a日韩av网址| 7777免费精品视频| aaa在线播放视频| 国内精品久久久久影院 日本资源| 含羞草www国产在线视频| 中文字幕在线观看日韩| 国产天堂在线| 亚洲天堂日韩电影| 久久天堂电影| 亚洲全黄一级网站| 免费在线超碰| 亚洲视频777| 国产毛片在线看| 国产亚洲激情在线| 国产对白叫床清晰在线播放| 亚洲性视频网址| 国产精品久久一区二区三区不卡| 国产亚洲欧美aaaa| 成a人片在线观看www视频| 亚洲偷熟乱区亚洲香蕉av| 黄色片免费在线| 一区二区成人精品| 欧美a在线看| 久久视频在线直播| 亚洲色图美国十次| 久久久久久久久久国产| 国产桃色电影在线播放| 97人人爽人人喊人人模波多| av在线资源| 日本一区二区在线免费播放| 高清电影一区| 91久久在线视频| 亚洲午夜精品| 精品一区二区三区自拍图片区| 欧美黄色网视频| 亚洲国产日韩美| 亚洲啊v在线观看| 真人抽搐一进一出视频| 国产亚洲一级| av丝袜天堂网| 国产久卡久卡久卡久卡视频精品| 亚洲视频天天射| www日韩大片| 青青青视频在线播放| 亚洲精品ww久久久久久p站| 免费毛片一区二区三区| 一本到不卡精品视频在线观看| 在线观看不卡的av| 日韩欧美国产小视频| 亚洲 小说区 图片区 都市| 中文字幕国产日韩| 青草av在线| 青草青草久热精品视频在线观看| 久久天天久久| 国产精品一区二区三区在线| 蜜桃成人av| 艳母动漫在线观看| 亚欧成人精品| 中文国产在线观看| 久久久久99精品一区| 97成人资源站| 色综合天天综合网天天看片| 国产精品高潮呻吟av| 欧美精品一区二区在线播放 | 欧美夫妻性视频| 欧美日韩女优| 久久99精品国产一区二区三区| 日本激情一区| 日韩av一二三四区| 国产一二三精品| 我不卡一区二区| 香蕉av福利精品导航| 国产精品久久免费| 亚洲精品视频中文字幕| 怡红院在线播放| 国产精品美乳一区二区免费| 成午夜精品一区二区三区软件| 亚洲 日韩 国产第一区| 一区二区91| 波多野结衣在线免费观看| 国产视频一区不卡| 粉嫩aⅴ一区二区三区| 91麻豆精品国产91久久久久久| 天堂av在线资源| 欧美黑人巨大精品一区二区| 国产亚洲精彩久久| 欧美精品与人动性物交免费看| 夜间精品视频| 国产一级片自拍| 国产午夜一区二区三区| 国产午夜激情视频| 日韩一区二区影院| 欧洲不卡av| 国产精品久久中文| 国产毛片一区二区三区| 久久视频这里有精品| 国产成人免费视频网站高清观看视频| 女教师淫辱の教室蜜臀av软件| 欧美午夜视频一区二区| 特黄视频在线观看| 久久久久久国产| 午夜视频一区二区在线观看| 一区二区日本伦理| 毛片av中文字幕一区二区| 亚洲一区二区三区日韩| 色综合久久中文字幕综合网| 婷婷亚洲一区二区三区| 欧美激情免费在线| 日韩精品一区二区三区中文在线| 在线观看精品视频| 精品在线播放午夜| 国产传媒免费在线观看| 欧美精品日韩综合在线| 精品孕妇一区二区三区| 国产在线观看不卡| 久久久久亚洲| 少妇献身老头系列| 亚洲国产一区二区三区青草影视| 亚洲乱码精品久久久久..| 欧美激情国产精品| 高潮按摩久久久久久av免费| 亚洲一区二区三区av无码| 成人三级伦理片| 欧美激情亚洲综合| 国产视频在线一区二区| 免费观看亚洲| 水蜜桃亚洲精品| 麻豆91在线看| 欧美日韩一级大片| 亚洲成人亚洲激情| 26uuu亚洲电影| 亚洲精品一品区二品区三品区| 免费视频一区二区| 中文字幕av播放| 亚洲成人网在线观看| 在线黄色的网站| 亚洲精品一区二区三区樱花 | 国产日韩欧美精品| 国产精品美女| 91狠狠综合久久久久久| 欧美高清视频在线高清观看mv色露露十八 | 国产一级免费av| 国产午夜精品久久久| 成人免费在线观看视频| 国产日韩视频在线播放| 成人丝袜视频网| 在线播放精品视频| 欧美激情欧美激情在线五月| 五月综合久久| 国产一伦一伦一伦| 亚洲狠狠爱一区二区三区| 国产黄在线观看免费观看不卡| 成人免费福利在线| 亚洲精品专区| 黄大色黄女片18免费| 精品国产sm最大网站| 欧美成人ⅴideosxxxxx| 丰满女人性猛交| 91小视频免费看| 一级特黄色大片| 91精品国产91久久久久| 日韩一区自拍| 在线免费看黄色片| 欧美日韩电影在线播放| 91超碰在线免费| 亚洲日本精品一区| av成人老司机| 国产精品一区二区av白丝下载 | 国产精品久久福利| 欧美一区二区三区成人片在线| 国产精品亚洲欧美导航| 亚洲国产精品第一区二区三区| 亚洲色图第四色|