精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

解釋模型還只看特征重要性?那你就 OUT 咯!

開發(fā) 前端
為了區(qū)分這兩個方面,我們引入了兩個概念: 預測貢獻和誤差貢獻。這兩個概念都基于驗證數(shù)據(jù)集的 SHAP 值,在文章中我們看到了計算它們的 Python 代碼。

特征重要性是解釋機器學習模型最常用的工具。這導致我們常常認為特征重要性等同于特征好壞。

事實并非如此。

當一個特征很重要時,它僅僅意味著模型發(fā)現(xiàn)它在訓練集中很有用。但是,這并不能說明該特征在新數(shù)據(jù)上的泛化能力!。

為了說明這一點,我們需要區(qū)分兩個概念:

  • 預測貢獻:變量在模型預測中的權重。這是由模型在訓練集中發(fā)現(xiàn)的模式?jīng)Q定的。這相當于特征重要性。
  • 錯誤貢獻:模型在暫存數(shù)據(jù)集上的錯誤中,變量所占的權重。這可以更好地反映特征在新數(shù)據(jù)上的表現(xiàn)。

在本文中,我將解釋在分類模型中計算這兩個量背后的邏輯。我還將舉例說明在特征選擇中使用 "誤差貢獻 "比使用 "預測貢獻" 會得到更好的結果。

假設我們有一個分類問題,想要預測一個人的收入是低于還是高于 10k。還假設我們已經(jīng)有了模型的預測結果:

實際值和模型預測實際值和模型預測

預測和誤差貢獻的計算主要基于模型對每個個體的誤差以及每個個體的 SHAP 值。因此,我們必須花一點時間來討論兩個相關問題:

  • 分類模型應該使用哪種 "誤差"?
  • 我們應該如何管理分類模型中的 SHAP 值?

我將在接下來的兩段中討論這些問題。

在分類模型中使用哪種 "誤差"?

我們的主要目標是計算模型中每個特征的誤差貢獻(Error Contribution)。因此,最重要的問題是:如何定義分類模型中的 "誤差"?

請注意,我們需要一個可以在個體水平上計算的誤差,然后將其匯總到整個樣本中,得到一個 "平均誤差"(回歸模型的絕對誤差請看??顛覆認知!這個特征很重要,但不是個好特征!)。

分類模型最常用的損失函數(shù)是對數(shù)損失(又名交叉熵)。它是否適合我們。

下面是對數(shù)損失的數(shù)學公式:

圖片圖片

對數(shù)損失似乎是最佳選擇,因為

  • 公式的外部部分只是一個簡單的平均值;
  • "損失",顧名思義意思是越小越好(就像 "誤差")。

試著理解一下,為什么我們可以稱它為 "誤差"。為了簡單起見,把注意力集中在和里面的數(shù)量上:

圖片圖片

這是單個個體對全局對數(shù)損失的貢獻,因此我們可以稱之為 "個體對數(shù)損失"。

這個公式看起來仍然很嚇人,但如果我們考慮到,在二元分類問題中,y只能是 0 或 1,我們就可以得到一個更簡單的版本:

圖片圖片

一圖勝千言,現(xiàn)在就很容易理解對數(shù)損失背后的主要思想了。

圖片圖片

預測概率與真實值(無論是 0 還是 1)相差越遠,損失就越大。此外,如果預測值與真實值相差很遠(例如,p=.2,y=1 或 p=.8,y=0),那么損失就會比比例損失更嚴重。現(xiàn)在我們應該更清楚為什么對數(shù)損失實際上是一種誤差了。

我們準備將單個對數(shù)損失公式轉化為一個 Python 函數(shù)。

為了避免處理無限值(當 y_pred 恰好為 0 或 1 時會出現(xiàn)這種情況),我們將使用一個小技巧:如果 y_pred 與 0 或 1 的距離小于 ε,我們將其分別設置為 ε 或 1-ε。對于 ε,我們將使用 1^-15(這也是 Scikit-learn 使用的默認值)。

def individual_log_loss(y_true, y_pred, eps=1e-15):
  """Compute log-loss for each individual of the sample."""
  
  y_pred = np.clip(y_pred, eps, 1 - eps)
  return - y_true * np.log(y_pred) - (1 - y_true) * np.log(1 - y_pred)

我們可以使用該函數(shù)計算數(shù)據(jù)集中每一行的單個對數(shù)損失:

目標變量、模型預測以及由此產(chǎn)生的個體對數(shù)損失目標變量、模型預測以及由此產(chǎn)生的個體對數(shù)損失

可以看出,個體 1 和個體 2 的對數(shù)損失(或誤差)非常小,因為預測值都非常接近實際觀測值,而個體 0 的對數(shù)損失較高。

如何管理分類模型中的 SHAP 值?

最流行的模型是基于樹的模型,如 XGBoost、LightGBM 和 Catboost。在數(shù)據(jù)集上獲取基于樹的分類器的 SHAP 值非常簡單:

from shap import TreeExplainer

shap_explainer = TreeExplainer(model)
shap_values = shap_explainer.shap_values(X)

# 可以定義一個函數(shù)來獲取
def get_preds_shaps(df, features, target, ix_trn):
  """Get predictions (predicted probabilities) and SHAP values for a dataset."""
    
  model = LGBMClassifier().fit(df.loc[ix_trn, features], df.loc[ix_trn, target])
  preds = pd.Series(model.predict_proba(df[features])[:,1], index=df.index)
  shap_explainer = TreeExplainer(model)
  shap_expected_value = shap_explainer.expected_value[-1]
  shaps = pd.DataFrame(
    data=shap_explainer.shap_values(df[features])[1],
    index=df.index,
    columns=features)
  return preds, shaps, shap_expected_value

例如,我們計算了該問題的 SHAP 值,得到了如下結果:

模型預測的 SHAP 值模型預測的 SHAP 值

不過,就本文而言,只要知道以下幾點就足夠了:

  • SHAP 正值:該特征導致該個體的概率增加;
  • SHAP 負值:該特征導致該個體的概率降低。

因此,很明顯,個體的 SHAP 值總和與模型的預測之間存在直接關系。

然而,由于 SHAP 值可以是任何實際值(正值或負值),我們不能期望它等于對該個體的預測概率(即介于 0 和 1 之間的數(shù)字)。那么,SHAP 值總和與預測概率之間的關系是什么呢?

由于 SHAP 值可以是任何負值或正值,因此我們需要一個函數(shù)來將 SHAP 和轉化為概率。這個函數(shù)必須具備兩個特性

  • 它應將任何實數(shù)值 "擠入" 區(qū)間 [0,1];
  • 它應該是嚴格遞增的(因為較高的 SHAP 和總是與較高的預測值相關聯(lián))。

符合這些要求的函數(shù)就是 sigmoid 函數(shù)。因此,模型對某一行預測的概率等于該個體 SHAP 值總和的正余弦值。

從 SHAP 值到預測概率從 SHAP 值到預測概率

下面是 sigmoid 函數(shù)的樣子:

圖片圖片

那么,把這個公式轉換成一個 Python 函數(shù):

def shap_sum2proba(shap_sum):
  """Compute sigmoid function of the Shap sum to get predicted probability."""
  
  return 1 / (1 + np.exp(-shap_sum))

還可以用圖形顯示出來,看看我們的個體在曲線上的位置:

圖片圖片

既然我們已經(jīng)了解了在分類問題中應該使用哪種誤差以及如何處理 SHAP 值,那么我們就可以看看如何計算預測值和誤差貢獻值了。

計算 "預測貢獻"

當 SHAP 值為高度正值(高度負值)時,預測結果會比沒有該特征時高(低)得多。換句話說,如果 SHAP 值的絕對值很大,那么該特征就會對最終預測結果產(chǎn)生很大影響。

這就是為什么我們可以通過取某一特征的 SHAP 絕對值的平均值來衡量該特征的預測貢獻。

prediction_contribution = shap_values.abs().mean()

在玩具數(shù)據(jù)集中,就得到了這樣的結果:

預測貢獻預測貢獻

因此,就特征的重要性而言,job是主要特征,其次是nationality,然后是age。

但誤差貢獻率如何呢?

5. 計算 "誤差貢獻"

"誤差貢獻" 背后的理念是計算如果我們去掉一個給定的特征,模型的誤差會是多少。

有了 SHAP 值,回答這個問題就很容易了:如果我們從 SHAP 總和中剔除某個特征,就可以得到模型在不知道該特征的情況下會做出的預測。但這還不夠:正如我們所看到的,要獲得預測概率,我們首先需要應用 sigmoid 函數(shù)。

因此,我們首先需要從 SHAP 總和中減去某個特征的 SHAP 值,然后再應用 sigmoid 函數(shù)。這樣,我們就得到了模型在不知道這些特征的情況下的預測概率。

在 Python 中,我們可以一次性完成所有特征的預測:

y_pred_wo_feature = shap_values.apply(lambda feature: shap_values.sum(axis=1) - feature).applymap(shap_sum2proba)

如果刪除相應特征,將得到的預測結果如果刪除相應特征,將得到的預測結果

這意味著,如果沒有job這一特征,模型預測第一個人的概率為 71%,第二個人的概率為 62%,第三個人的概率為 73%。相反,如果我們沒有nationality這一特征,預測結果將分別為 13%、95% 和 0%。

根據(jù)我們移除的特征,預測的概率相差很大。因此,得出的誤差(個體對數(shù)損失)也會大不相同。

我們可以使用上面定義的函數(shù)("individual_log_loss")來計算沒有相應特征時的個體對數(shù)損失:

ind_log_loss_wo_feature = y_pred_wo_feature.apply(lambda feature: individual_log_loss(y_true=y_true, y_pred=feature))

如果刪除相應特征,我們將獲得的單個對數(shù)損失如果刪除相應特征,我們將獲得的單個對數(shù)損失

例如,如果我們選取第一行,我們可以看到,如果沒有job特征,對數(shù)損失將為 1.24,但如果沒有nationality特征,對數(shù)損失僅為 0.13。由于我們要盡量減少損失,在這種情況下,最好是去掉nationality這個特征。

現(xiàn)在,要知道有或沒有該特征的模型會更好,我們可以計算完整模型的單個對數(shù)損失與沒有該特征的單個對數(shù)損失之間的差值:

ind_log_loss = individual_log_loss(y_true=y_true, y_pred=y_pred)
ind_log_loss_diff = ind_log_loss_wo_feature.apply(lambda feature: ind_log_loss - feature)

模型誤差與沒有該特征時的誤差之差模型誤差與沒有該特征時的誤差之差

如果這個數(shù)字是

  • 負數(shù),則該特征的存在會導致預測誤差減小,因此該特征對該觀測結果非常有效。
  • 正數(shù),則該特征的存在會導致預測誤差增大,因此該特征對該觀測結果不利。

最后,我們可以按列計算出每個特征的誤差貢獻值,即這些值的平均值:

error_contribution = ind_log_loss_diff.mean()

錯誤貢獻錯誤貢獻

一般來說,如果這個數(shù)字是負數(shù),則說明該特征具有積極作用;相反,如果這個數(shù)字是正數(shù),則說明該特征對模型有害,因為它往往會增加模型的平均誤差。

在這種情況下,我們可以看到,模型中job特征的存在導致個體對數(shù)損失平均減少-0.897,而nationality特征的存在導致個體對數(shù)損失平均增加 0.049。因此,盡管nationality是第二重要的特征,但它的效果并不好,因為它會使平均個體對數(shù)損失增加 0.049。

將以上過程總結一個函數(shù)公后續(xù)使用:

def get_feature_contributions(y_true, y_pred, shap_values, shap_expected_value):
  """Compute prediction contribution and error contribution for each feature."""

  prediction_contribution = shap_values.abs().mean().rename("prediction_contribution")
  
  ind_log_loss = individual_log_loss(y_true=y_true, y_pred=y_pred).rename("log_loss")
  y_pred_wo_feature = shap_values.apply(lambda feature: shap_expected_value + shap_values.sum(axis=1) - feature).applymap(shap_sum2proba)
  ind_log_loss_wo_feature = y_pred_wo_feature.apply(lambda feature: individual_log_loss(y_true=y_true, y_pred=feature))
  ind_log_loss_diff = ind_log_loss_wo_feature.apply(lambda feature: ind_log_loss - feature)
  error_contribution = ind_log_loss_diff.mean().rename("error_contribution").T
  
  return prediction_contribution, error_contribution

真實數(shù)據(jù)集示例

具體代碼可參考上一篇內容:

下面,我將使用來自Pycaret的數(shù)據(jù)集。該數(shù)據(jù)集名為 "Gold",包含一些金融數(shù)據(jù)的時間序列。

數(shù)據(jù)集樣本。特征均以百分比表示,因此 -4.07 表示回報率為 -4.07%數(shù)據(jù)集樣本。特征均以百分比表示,因此 -4.07 表示回報率為 -4.07%

特征包括觀察時刻前 22 天、14 天、7 天和 1 天("T-22"、"T-14"、"T-7"、"T-1")的金融資產(chǎn)回報率。以下是用作預測特征的所有金融資產(chǎn):

圖片圖片

可用資產(chǎn)列表。每種資產(chǎn)的觀測時間分別為-22、-14、-7 和-1。

我們總共有 120 個特征。

我們的目標是預測黃金未來 22 天的回報率是否會大于 5%。換句話說,目標變量是0/1變量的:

  • 0,如果黃金未來 22 天的回報率小于 5%;
  • 1,如果黃金未來 22 天的回報率大于 5%。

圖片圖片

未來 22 天黃金回報率柱狀圖。標為紅色的閾值用于定義我們的目標變量:回報率是否大于 5%

加載數(shù)據(jù)集后,我執(zhí)行了以下步驟:

  1. 隨機分割整個數(shù)據(jù)集:33% 的行在訓練數(shù)據(jù)集中,另外 33% 在驗證數(shù)據(jù)集中,剩下的 33% 在測試數(shù)據(jù)集中。
  2. 在訓練數(shù)據(jù)集上訓練 LightGBM 分類器。
  3. 使用上一步訓練的模型對訓練、驗證和測試數(shù)據(jù)集進行預測。
  4. 使用 Python 庫 "shap "計算訓練、驗證和測試數(shù)據(jù)集的 SHAP 值。
  5. 使用我們在上一段中看到的代碼,計算每個特征在每個數(shù)據(jù)集(訓練集、驗證集和測試集)上的預測貢獻值和誤差貢獻值。

至此,我們就有了預測貢獻值和誤差貢獻值,可以對它們進行比較了:

預測貢獻與誤差貢獻(驗證數(shù)據(jù)集)預測貢獻與誤差貢獻(驗證數(shù)據(jù)集)

通過觀察這幅圖,我們可以對模型有寶貴的了解。

最重要的特征是 T-22 天的美國債券 ETF,但它并沒有帶來如此大的誤差減少。最好的特征是 T-22 日的 3M Libor,因為它能最大程度地減少誤差。

玉米價格有一些非常有趣的地方。T-1 期和 T-22 期的收益率都是最重要的特征之一,但其中一個特征(T-1 期)是過度擬合的(因為它會使預測誤差變大)。

一般來說,我們可以觀察到所有誤差貢獻較大的特征都是相對于 T-1 或 T-14(觀察時刻前 1 天或 14 天)而言的,而所有誤差貢獻較小的特征都是相對于 T-22(觀察時刻前 22 天)而言的。這似乎表明,最近的特征容易過度擬合,而較早回報的特征往往概括性更好。

除了深入了解模型之外,我們還可以很自然地想到使用誤差貢獻來進行特征選擇。這就是我們下一段要做的。

"誤差貢獻"進行遞歸特征消除

遞歸特征消除(RFE)是從數(shù)據(jù)集中逐步去除特征的過程,目的是獲得更好的模型。

RFE 算法非常簡單:

  1. 初始化特征列表;
  2. 使用當前特征列表作為預測因子,在訓練集上訓練一個模型;
  3. 從特征列表中刪除 "最差 "特征;
  4. 回到第 2 步(直到特征列表為空)。

在傳統(tǒng)方法中,"最差" = 最不重要。然而,根據(jù)我們的觀察,我們可能會反對先刪除危害最大的特征。

換句話說

  • 傳統(tǒng)的 RFE:先去除最無用的特征(最無用 = 驗證集上最低的預測貢獻)。
  • 我們的 RFE:先去除最有害的特征(最有害 = 驗證集上最高的誤差貢獻)。

為了驗證這種直覺是否正確,我使用這兩種方法進行了模擬。

這是驗證集上的對數(shù)損失結果:

兩種策略在驗證集上的對數(shù)損失兩種策略在驗證集上的對數(shù)損失

由于對數(shù)損失是一個 "越低越好 "的指標,我們可以看到,在驗證數(shù)據(jù)集上,我們的 RFE 版本明顯優(yōu)于經(jīng)典 RFE。

不過,你可能會懷疑,只看驗證集并不公平,因為誤差貢獻是在驗證集上計算的。那么,我們來看看測試集。

兩種策略在測試集上的對數(shù)損失兩種策略在測試集上的對數(shù)損失

即使現(xiàn)在兩種方法之間的差距變小了,但我們可以看到差距仍然很大,因此足以得出結論:在這個數(shù)據(jù)集上,基于誤差貢獻的 RFE 明顯優(yōu)于基于預測貢獻的 RFE。

除了對數(shù)損失,我們還可以考慮一種更有實用價值的指標。例如,我們來看看驗證集上的平均精度:

兩種策略在驗證集上的平均精確度兩種策略在驗證集上的平均精確度

值得注意的是,盡管貢獻誤差是基于對數(shù)損失計算的,但我們在平均精度方面也取得了很好的結果。

如果我們想根據(jù)平均精度做出決定,那么我們就會選擇驗證集上平均精度最高的模型。這意味著:

  • 基于誤差貢獻的 RFE:具有 19 個特征的模型;
  • 基于預測貢獻的 RFE:具有 14 個特征的模型;

如果我們這樣做,在新數(shù)據(jù)上會觀察到什么性能?回答這個問題的最佳代表就是測試集:

圖片圖片

兩種策略在驗證集上的平均精確度

同樣在這種情況下,基于誤差貢獻的 RFE 性能總體上優(yōu)于基于預測貢獻的 RFE。特別是,根據(jù)我們之前的判斷:

  • 基于誤差貢獻的 RFE(包含 19 個特征的模型): 平均精確度為 72.8%;
  • 基于預測貢獻的 RFE(模型有 14 個特征):平均精度為 65.6%: 平均精度為 65.6%。

因此,通過使用基于誤差貢獻的 RFE,而不是傳統(tǒng)的基于預測貢獻的 RFE,我們可以在平均精確度上額外獲得 7.2% 的顯著提高!

結論

特征重要性的概念在機器學習中扮演著重要角色。然而,"重要性" 的概念常常被誤認為是 "好"。

為了區(qū)分這兩個方面,我們引入了兩個概念: 預測貢獻和誤差貢獻。這兩個概念都基于驗證數(shù)據(jù)集的 SHAP 值,在文章中我們看到了計算它們的 Python 代碼。

我們還在一個真實的金融數(shù)據(jù)集(其中的任務是預測黃金價格)上對它們進行了嘗試,結果證明,與傳統(tǒng)的基于預測貢獻的 RFE 相比,基于誤差貢獻的遞歸特征消除可使平均精度提高 7%。

責任編輯:武曉燕 來源: 數(shù)據(jù)STUDIO
相關推薦

2021-07-19 16:23:55

數(shù)據(jù)安全滴滴大數(shù)據(jù)

2021-04-16 20:46:21

PythonXGBoost 特征

2025-10-16 08:55:00

2017-01-03 17:50:04

2009-12-25 15:00:48

WPF軟件

2010-07-30 16:28:06

2023-10-24 11:07:57

2023-09-18 15:54:56

Python機器學習

2017-12-29 10:14:48

IT項目

2020-08-27 07:00:00

代碼軟件應用程序

2013-08-08 10:10:06

備份策略全備份增量備份

2011-07-05 18:30:44

站內優(yōu)化

2009-12-23 15:57:40

WPF傳遞事件

2017-08-04 08:48:33

公有云云存儲故障

2009-05-05 09:45:56

程序員職場成長過程

2016-08-29 20:31:17

2014-04-23 11:36:29

運維日志

2022-11-04 14:13:54

2010-07-05 14:27:30

UML各種圖形

2009-03-03 17:25:41

點贊
收藏

51CTO技術棧公眾號

一本一本久久a久久精品综合麻豆| 美女视频一区在线观看| 亚洲精品999| 一本大道熟女人妻中文字幕在线| 天堂а在线中文在线无限看推荐| 狠狠88综合久久久久综合网| 亚洲国产精品女人久久久| 浮妇高潮喷白浆视频| 久蕉在线视频| 国产一区二区三区四区五区美女| 欧美第一淫aaasss性| 亚洲精品乱码久久久久久蜜桃图片| 久草免费在线视频| 国产精品久久久久久久久搜平片| 亚洲在线免费观看| 天天做天天爱夜夜爽| 日韩欧美一区免费| 91精品国产91久久久久久一区二区| 国产又粗又长又爽视频| 免费理论片在线观看播放老| 久久99精品国产.久久久久| 欧美激情亚洲一区| 女女互磨互喷水高潮les呻吟 | 久久综合久久鬼色| 国产日本欧美在线观看| 久久综合激情网| 国产成人精品一区二区免费看京| 911精品国产一区二区在线| 精品无码国产一区二区三区av| 高清在线观看av| 福利电影一区二区| 国产欧美亚洲精品| 欧美一区二区三区四| 成人久久综合| 亚洲精品动漫100p| 成年人性生活视频| 日韩久久一区二区三区| 亚洲高清免费视频| 五月天色婷婷综合| 国内av一区二区三区| 国产乱人伦精品一区二区在线观看| 555www成人网| 欧美日韩精品一区二区三区视频播放| 少妇精品久久久| 精品欧美乱码久久久久久1区2区| 欧美婷婷精品激情| 国产精品粉嫩| 午夜激情一区二区三区| 五月天激情图片| 成人午夜在线影视| 国产精品的网站| 午夜视频久久久| 欧美成人综合在线| 97se亚洲国产综合自在线| 99视频在线| 国产精品国产精品国产专区| 热久久一区二区| 国产www精品| 天天操夜夜操视频| 国产精品www994| 久久99精品久久久久久噜噜| 老熟妇高潮一区二区三区| 日韩影院二区| 最近2019中文字幕一页二页| 少妇无套高潮一二三区| 国产亚洲精品美女久久| 精品少妇一区二区三区在线播放| 亚洲图片 自拍偷拍| 亚洲a成人v| 欧美另类一区二区三区| 黄色免费网址大全| 国产成人亚洲一区二区三区| 色88888久久久久久影院野外| 国产成人无码精品久久久性色| 国产美女高潮在线| 欧美日韩国产专区| aaa毛片在线观看| 国产在线|日韩| 日本道在线观看一区二区| 97国产精东麻豆人妻电影| 天堂√中文最新版在线| 精品国产1区2区| 免费观看精品视频| 成人av色网站| 欧美一区二区三区四区视频 | 男女视频在线| 亚洲成人综合网站| 日韩精品一区二区三区久久| 国产一区一一区高清不卡| 欧美久久久久免费| gogo亚洲国模私拍人体| 欧美日韩大片免费观看| 亚洲网站在线观看| 免费在线观看a视频| 国产精品久久久久久久| 久久99精品久久久久久琪琪| 日产电影一区二区三区| 久久亚洲精品伦理| 成人av.网址在线网站| 精品免费久久久| 91免费观看视频在线| 亚洲国产高清国产精品| 在线三级中文| 日韩欧美中文字幕在线播放| 亚欧激情乱码久久久久久久久| 欧美午夜网站| 精品亚洲aⅴ在线观看| 正在播放国产对白害羞| 激情欧美丁香| 国产精品91久久久| 亚洲精品视频91| 久久精品视频免费观看| 自拍偷拍亚洲色图欧美| h片在线观看下载| 色八戒一区二区三区| 人妻少妇偷人精品久久久任期| 日韩高清一级| 欧美成人午夜激情| 国产成人无码专区| 成人精品一区二区三区中文字幕| 色综合久久av| 超级白嫩亚洲国产第一| 91精品办公室少妇高潮对白| 日韩精品aaa| 国产99精品| 欧美大片第1页| 亚洲视屏在线观看| www.亚洲色图| av一区二区三区免费观看| 亚洲a∨精品一区二区三区导航| 日韩精品一区二区在线| 亚洲图片第一页| 美女国产一区| 精品国产乱码久久久久| 天天影视久久综合| 午夜精品影院在线观看| 久草福利在线观看| 五月综合激情| 国产欧美日韩精品在线观看 | 日韩精品一区二区三区老鸭窝| 69精品无码成人久久久久久| 一本久久知道综合久久| 国产欧美在线播放| 裸体xxxx视频在线| 精品久久香蕉国产线看观看亚洲 | 国模大尺度一区二区三区| 麻豆亚洲一区| a在线视频v视频| 欧美r级电影在线观看| 搜索黄色一级片| 毛片一区二区三区| 亚洲第一综合| 成人黄色在线| 这里只有视频精品| 天天操天天爽天天干| 波多野洁衣一区| 欧美高清中文字幕| 日韩一二三区| 欧美激情免费观看| 韩国av免费在线| 亚洲在线视频免费观看| 中文字幕无码毛片免费看| 欧美a级片一区| 91精品国产99久久久久久红楼| 欧美激情视频在线播放| 精品视频一区二区三区免费| 亚洲AV无码成人精品区明星换面| 日本aⅴ精品一区二区三区 | 综合亚洲视频| 亚洲一区二区三区视频播放| 久久五月精品| 欧美一区欧美二区| 久久一级免费视频| 国产一区二区三区不卡在线观看| 91社在线播放| 一本色道69色精品综合久久| 久久久久久伊人| 日韩专区一区二区| 日本高清不卡视频| 秋霞欧美一区二区三区视频免费| 国产在线日韩欧美| 成人免费在线视频播放| 久久久伦理片| 亲子乱一区二区三区电影| 成年人在线看| 91精品国产综合久久精品图片| 国产又黄又爽又无遮挡| 国产激情一区二区三区四区| 国产一区二区三区乱码| 日韩精品导航| 国产男人精品视频| 日韩三级电影视频| 国产丝袜精品第一页| 在线观看免费黄色小视频| 亚洲精品久久久蜜桃| 欲求不满的岳中文字幕| 奇米一区二区三区| 4444在线观看| 久久93精品国产91久久综合| 国产精品一区久久| 18aaaa精品欧美大片h| 一区二区中文字幕| 韩国av在线免费观看| 日本精品一级二级| 免费视频一二三区| 国产午夜亚洲精品午夜鲁丝片| 国产女同无遮挡互慰高潮91| 亚洲黄色影片| 亚洲国产日韩美| 一区二区在线视频观看| 日韩美女免费线视频| av理论在线观看| 精品亚洲国产成av人片传媒 | 欧美多人猛交狂配| 国精品**一区二区三区在线蜜桃| 国产精品裸体瑜伽视频| 一本色道久久综合狠狠躁的番外| 成人激情av在线| 综合日韩av| 欧美极品欧美精品欧美视频 | 亚洲成av在线| 久久久综合av| 黄色精品在线观看| 亚洲欧美在线磁力| 蜜桃视频久久一区免费观看入口 | 无码人妻久久一区二区三区 | 午夜啪啪福利视频| 国产一区二区亚洲| 狠狠色伊人亚洲综合网站色| 国产一区二区三区免费在线| 国产精品福利在线观看网址| av在线加勒比| 欧美成人一区在线| 欧美69xxxx| 国产亚洲精品高潮| 偷拍精品一区二区三区| 日韩一区二区三区四区五区六区 | 亚洲va韩国va欧美va精品| 最新日韩免费视频| 国产清纯美女被跳蛋高潮一区二区久久w | 国产真实乱人偷精品人妻| av在线一区二区三区| 亚洲成人福利视频| 国产成人免费视频精品含羞草妖精| 国产精品拍拍拍| 日本欧美大码aⅴ在线播放| 777久久久精品一区二区三区| 欧美黄色aaaa| av影院在线播放| 亚洲色图插插| 超碰97免费观看| 91精品秘密在线观看| 一区二区三区三区在线| 久久国产成人精品| 中文字幕日韩精品一区二区| 视频在线不卡免费观看| 亚洲综合五月天| 国产精品传媒精东影业在线| 日韩不卡av| 成人羞羞视频在线看网址| 亚洲精品无人区| 成人在线国产| 亚洲欧美国产精品桃花| 99精品在线| 韩国黄色一级大片| 欧美激情亚洲| 分分操这里只有精品| 亚洲人成久久| 日韩av中文字幕第一页| 一本色道久久综合亚洲精品不| 青青草视频在线免费播放 | 日韩黄色片视频| 日韩专区中文字幕一区二区| wwwwww.色| 久久99精品国产91久久来源| 色片在线免费观看| 国产麻豆视频精品| 无码人妻一区二区三区免费n鬼沢| 国产精品一二三四区| 中文成人无字幕乱码精品区| 成人免费视频app| 久久国产精品无码一级毛片| 久久精品一区四区| 天天色影综合网| 亚洲观看高清完整版在线观看| 99久在线精品99re8热| 91国产视频在线观看| 91成年人视频| 欧美一区二区三区日韩| 色婷婷av一区二区三区之e本道| 国产婷婷97碰碰久久人人蜜臀| 成人性生交大片免费看午夜| 久久福利视频导航| 波多视频一区| av免费观看久久| 日韩国产欧美| a级黄色一级片| 极品少妇一区二区三区精品视频| 182在线视频| 亚洲欧美在线视频| 日韩 国产 欧美| 精品久久久久久久久久久院品网 | 日本一二三四高清不卡| 国产一级理论片| 欧美精品久久久久久久久老牛影院| 亚洲av电影一区| 欧美精品在线免费观看| 蜜桃视频成人m3u8| 久久精品国产一区二区三区日韩 | av av片在线看| 在线观看欧美日韩国产| 男人天堂视频在线观看| 7777奇米亚洲综合久久| 青青草综合网| 天天摸天天碰天天添| 成人精品gif动图一区| 91嫩草|国产丨精品入口| 欧美丝袜丝nylons| 国产三级在线免费观看| 91精品国产色综合| 国产精品45p| 91麻豆天美传媒在线| 极品美女销魂一区二区三区| 日本二区在线观看| 日韩欧美999| 丝袜视频国产在线播放| 韩日欧美一区二区| www.亚洲一二| 97碰在线视频| 东方欧美亚洲色图在线| 国产成人综合在线视频| 欧美老女人在线| 98在线视频| 国产精品一区二区三区成人| 成人综合一区| 岛国毛片在线播放| 国产精品久久久久久久午夜片| 波多野结衣高清在线| 亚洲午夜av电影| 久久久成人av毛片免费观看| 欧美一区二区三区四区在线观看地址| 国产美女一区| 国产手机在线观看| 91国偷自产一区二区三区观看| 国产免费视频在线| 国产精品日日做人人爱| blacked蜜桃精品一区| 五月婷婷激情久久| 中文字幕在线一区| a在线观看视频| 欧美激情一二区| 亚洲人亚洲人色久| 欧美亚洲日本在线观看| 中文字幕第一区第二区| 91久久国语露脸精品国产高跟| 久久精品中文字幕免费mv| 电影一区二区三区久久免费观看| 欧美日韩亚洲国产成人| 国产盗摄女厕一区二区三区| 国产精品美女毛片真酒店| 日韩精品视频免费| 亚洲综合在线电影| 日韩第一页在线观看| 国产凹凸在线观看一区二区| 91国产丝袜播放在线| 亚洲色图国产精品| www.久久久.com| 欧美午夜小视频| 久久精品一区二区三区四区| 91成人在线免费| 久久久久免费精品国产| 欧美女优在线视频| 在线看免费毛片| 亚洲不卡在线观看| 国产精品秘入口| 亚洲xxxx在线| 香蕉久久国产| 天堂网avav| 亚洲精品视频免费在线观看| 91成人在线| 久久精品xxx| 欧美韩国日本不卡| 亚洲乱码国产乱码精品精软件| 欧美与欧洲交xxxx免费观看| 91亚洲人成网污www| 日韩综合第一页| 欧美日韩美女一区二区| а√在线天堂官网| 亚洲综合网中心| 2021国产精品久久精品| 国产精品一二三四五区| 青青草成人在线| 欧美日韩理论| 一本在线免费视频| 日韩精品高清视频| 免费观看在线一区二区三区| 色诱视频在线观看| 亚洲电影在线播放| 日本在线免费播放| 女同一区二区|