精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

3億會員、4億商品,深度學習在大型電商商品推薦的應用實踐!

人工智能 深度學習
電商行業中,對于用戶的商品推薦一直是一個非常熱門而且重要的話題,有很多比較成熟的方法,但是也各有利弊。

電商行業中,對于用戶的商品推薦一直是一個非常熱門而且重要的話題,有很多比較成熟的方法,但是也各有利弊。

[[202807]]

常見算法套路

電商品推薦中的常見算法大致如下:

基于商品相似度

比如食物 A 和食物 B,根據它們的價格、味道、保質期、品牌等維度,可以計算它們的相似程度,可以想象,我買了包子,很有可能順路帶一盒水餃回家。

優點:冷啟動,只要你有商品的數據,在業務初期用戶數據不多的情況下,也可以做推薦。

缺點:預處理復雜,任何一件商品,維度可以說至少可以上百,如何選取合適的維度進行計算,涉及到工程經驗,這些也是花錢買不到的。

典型:亞馬遜早期的推薦系統。

基于關聯規則

最常見的就是通過用戶購買的習慣,經典的就是“啤酒尿布”的案例,但是實際運營中這種方法運用的是最少的。

首先要做關聯規則,數據量一定要充足,否則置信度太低,當數據量上升了,我們有更多優秀的方法,可以說沒有什么亮點,業內的算法有 apriori、ftgrow 之類的。

優點:簡單易操作,上手速度快,部署起來也非常方便。

缺點:需要有較多的數據,精度效果一般。

典型:早期運營商的套餐推薦。

基于物品的協同推薦

假設物品 A 被小張、小明、小董買過;物品 B 被小紅、小麗、小晨買過;物品 C 被小張、小明、小李買過。

直觀的來看,物品 A 和物品 C 的購買人群相似度更高(相對于物品 B),現在我們可以對小董推薦物品 C,小李推薦物品 A,這個推薦算法比較成熟,運用的公司也比較多。

優點:相對精準,結果可解釋性強,副產物可以得出商品熱門排序。

缺點:計算復雜,數據存儲瓶頸,冷門物品推薦效果差。

典型:早期一號店商品推薦。

基于用戶的協同推薦

假設用戶 A 買過可樂、雪碧、火鍋底料;用戶 B 買過衛生紙、衣服、鞋;用戶 C 買過火鍋、果汁、七喜。

直觀上來看,用戶 A 和用戶 C 相似度更高(相對于用戶 B),現在我們可以對用戶 A 推薦用戶 C 買過的其他東西,對用戶 C 推薦用戶 A 買過的其他東西,優缺點與基于物品的協同推薦類似,不重復了。

基于模型的推薦

svd+、特征值分解等等,將用戶的購買行為的矩陣拆分成兩組權重矩陣的乘積,一組矩陣代表用戶的行為特征,一組矩陣代表商品的重要性,在用戶推薦過程中,計算該用戶在歷史訓練矩陣下的各商品的可能性進行推薦。

優點:精準,對于冷門的商品也有很不錯的推薦效果。

缺點:計算量非常大,矩陣拆分的效能及能力瓶頸一直是受約束的。

典型:惠普的電腦推薦。

基于時序的推薦

這個比較特別,在電商運用的少,在 Twitter,Facebook,豆瓣運用的比較多,就是在只有贊同和反對的情況下,怎么進行評論排序。

基于深度學習的推薦

現在比較火的 CNN(卷積神經網絡)、RNN(循環神經網絡)、DNN(深度神經網絡)都有運用在上面推薦的例子,但是都還處于試驗階段。有個基于 word2vec 的方法已經相對比較成熟,也是我們今天介紹的重點。

優點:推薦效果非常精準,所需要的基礎存儲資源較少。

缺點:工程運用不成熟,模型訓練調參技巧難。

典型:蘇寧易購的會員商品推薦。

item2vec 工程引入

現在蘇寧的商品有約 4 億個,商品的類目有 10000 多組,大的品類也有近 40 個,如果通過傳統的協同推薦,實時計算的話,服務器成本,計算能力都是非常大的局限。

會員研發部門因為不是主要推薦的應用部門,所以在選擇上,我們期望的是更加高效高速且相對準確的簡約版模型方式,所以我們這邊基于 word2vec 的原始算法,仿造了 itemNvec 的方式。

首先,讓我們對 itemNvec 進行理論拆分:

01.part one:n-gram

目標商品的前后商品對目標商品的影響程度

這是兩個用戶 userA,userB 在易購上面的消費 time line,灰色方框內為我們觀察對象,試問一下,如果換一下灰色方框內的 userA、userB 的購買物品,直觀的可能性有多大?

直觀的體驗告訴我們,這是不可能出現,或者絕對不是常出現的。所以,我們就有一個初始的假設,對于某些用戶在特定的類目下,用戶的消費行為是連續影響的。

換句話說,就是我買了什么東西是依賴我之前買過什么東西。如何通過算法語言解釋上面說的這件事呢?大家回想一下,naive bayes 做垃圾郵件分類的時候是怎么做的?

假設“我公司可以提供發票、軍火出售、航母維修”這句話是不是垃圾郵件?

  • P1(“垃圾郵件”|“我公司可以提供發票、軍火出售、航母維修”)
  • =p(“垃圾郵件”)p(“我公司可以提供發票、軍火出售、航母維修”/“垃圾郵件”)/p(“我公司可以提供發票、軍火出售、航母維修”)
  • =p(“垃圾郵件”)p(“發票”,“軍火”,“航母”/“垃圾郵件”)/p(“發票”,“軍火”,“航母”)

同理

  • P2(“正常郵件”|“我公司可以提供發票、軍火出售、航母維修”)
  • =p(“正常郵件”)p(“發票”,“軍火”,“航母”/“正常郵件”)/p(“發票”,“軍火”,“航母”)

我們只需要比較 p1 和 p2 的大小即可,在條件獨立的情況下可以直接寫成:

  • P1(“垃圾郵件”|“我公司可以提供發票、軍火出售、航母維修”)
  • =p(“垃圾郵件”)p(“發票”/“垃圾郵件”)p(“軍火”/“垃圾郵件”)p(“航母”/“垃圾郵件”)
  • P2(“正常郵件”|“我公司可以提供發票、軍火出售、航母維修”)
  • =p(“正常郵件”)p(“發票”/“正常郵件”)p(“軍火”/“正常郵件”)p(“航母”/“正常郵件”)

但是,我們看到,無論“我公司可以提供發票、軍火出售、航母維修”詞語的順序怎么變化,不影響它最后的結果判定,但是我們這邊的需求里面前面買的東西對后項的影響會更大。

冰箱=>洗衣機=>衣柜=>電視=>汽水,這樣的下單流程合理。

冰箱=>洗衣機=>汽水=>電視=>衣柜,這樣的下單流程相對來講可能性會更低。

但是對于 naive bayes,它們是一致的。所以,我們這邊考慮順序,還是上面那個垃圾郵件的問題。

  • P1(“垃圾郵件”|“我公司可以提供發票、軍火出售、航母維修”)
  • =p(“垃圾郵件”)p(“發票”)p(“軍火”/“發票”)p(“軍火”/“航母”)
  • P1(“正常郵件”|“我公司可以提供發票、軍火出售、航母維修”)
  • =p(“正常郵件”)p(“發票”)p(“軍火”/“發票”)p(“軍火”/“航母”)

這邊我們每個詞只依賴前一個詞,理論上講依賴 1-3 個詞通常都是可接受的。

以上考慮順序的 bayes 就是基于著名的馬爾科夫假設(Markov Assumption):下一個詞的出現僅依賴于它前面的一個或幾個詞下的聯合概率問題,相關詳細的理論數學公式就不給出了,這里涉及一個思想。

02.part two:Huffman Coding

更大的數據存儲形式

我們常用的 user 到 item 的映射是通過 one hot encoding 的形式去實現的,這有一個非常大的弊端就是數據存儲系數且維度災難可能性極大。

回到最初的那組數據:現在蘇寧的商品有約 4 億個,商品的類目有 10000 多組,大的品類也有近 40 個,同時現在會員數目達到 3 億。

要是需要建造一個用戶商品對應的購買關系矩陣做基于用戶的協同推薦的話,我們需要做一個 4 億 X 6 億的 1/0 矩陣,這個是幾乎不可能的,Huffman 采取了一個近似二叉樹的形式進行存儲。

我們以易購商品購買量為例,講解一下如何以二叉樹的形式替換 one hot encoding 存儲方式:

假設

818 蘇寧大促期間,經過統計,有冰箱=>洗衣機=>烘干機=>電視=>衣柜=>鉆石的用戶下單鏈條(及購買物品順序如上),其中冰箱總售出 15 萬臺,洗衣機總售出 8 萬臺,烘干機總售出 6 萬臺,電視總售出 5 萬臺,衣柜總售出 3 萬臺,鉆石總售出 1 萬顆。

Huffman 樹構造過程:

  • 給定{15,8,6,5,3,1}為二叉樹的節點,每個樹僅有一個節點,那就存在 6 顆單獨的樹。
  • 選擇節點權重值最小的兩顆樹進行合并也就是{3}、{1},合并后計算新權重3+1=4。
  • 將{3},{1}樹從節點列表刪除,將 3+1=4 的新組合樹放回原節點列表。
  • 重新進行 2-3,直到只剩一棵樹為止。

針對每層每次分支過程,我們可以將所有權重大的節點看做是 1,權重小的節點看做是 0,相反亦可。

現在,我們比如需要知道鉆石的 code,就是 1000,也就是灰色方框的位置,洗衣機的 code 就是 111。

這樣的存儲利用了 0/1 的存儲方式,也同時考慮了組合位置的排列長度,節省了數據的存儲空間。

03.part three:node probility

最大化當前數據出現可能的概率密度函數

對于鉆石的位置而言,它的 Huffman code 是 1000,那就意味著在每一次二叉選擇的時候,它需要一次被分到 1,三次被分到 0。

而且每次分的過程中,只有 1/0 可以選擇,這是不是和 logistic regression 里面的 0/1 分類相似,所以這邊我們也直接使用了 lr 里面的交叉熵來作為 loss function。

其實對于很多機器學習的算法而言,都是按照先假定一個模型,再構造一個損失函數,通過數據來訓練損失函數求 argmin(損失函數)的參數,放回到原模型。

讓我們詳細的看這個鉆石的例子:

第一步:p(1|No.1 層未知參數)=sigmoid(No.1 層未知參數)

第二步:p(0|No.2 層未知參數)=sigmoid(No.2 層未知參數)

同理,第三、第四層:

  • p(0|No.3 層未知參數)=sigmoid(No.3 層未知參數)
  • p(0|No.4 層未知參數)=sigmoid(No.4 層未知參數)

然后求p(1|No.1 層未知參數) x p(0|No.2 層未知參數) x p(0|No.3 層未知參數)x p(0|No.4 層未知參數)最大下對應的每層的未知參數即可。

求解方式與 logistic 求解方式近似,未知參數分布偏導,后續采用梯度下降的方式。(極大、批量、牛頓按需使用)

04.part four:approximate nerual network

商品的相似度

剛才在 part three 里面有個 p(1|No.1 層未知參數)這個邏輯,這個 NO.1 層未知參數里面有一個就是商品向量。

舉個例子:

存在 1000 萬個用戶有過:“啤酒=>西瓜=>剃須刀=>百事可樂”的商品購買順序。

10 萬個用戶有過:“啤酒=>蘋果=>剃須刀=>百事可樂”的商品購買順序,如果按照傳統的概率模型比如 navie bayes 或者 n-gram 來看。

P(啤酒=>西瓜=>剃須刀=>百事可樂)>>p(啤酒=>蘋果=>剃須刀=>百事可樂),但是實際上這兩者的人群應該是同一波人,他們的屬性特征一定會是一樣的才對。

我們這邊通過隨機初始化每個商品的特征向量,然后通過 part three 的概率模型去訓練,最后確定了詞向量的大小。除此之外,還可以通過神經網絡算法去做這樣的事情。

Bengio 等人在 2001 年發表在 NIPS 上的文章《A Neural Probabilistic Language Model》介紹了詳細的方法。

我們這邊需要知道的就是,對于最小維度商品,我們以商品向量(0.8213,0.8232,0.6613,0.1234,...)的形式替代了0-1點(0,0,0,0,0,1,0,0,0,0...),單個的商品向量無意義。

但是成對的商品向量,我們就可以比較他們間的余弦相似度,比較類目的相似度,甚至品類的相似度。

Python代碼實現

01.數據讀取

  1. # -*- coding:utf-8 -*- 
  2. import pandas as pd 
  3. import numpy as np 
  4. import matplotlib as mt 
  5. from gensim.models import word2vec 
  6. from sklearn.model_selection import train_test_split 
  7.  
  8. order_data = pd.read_table('C:/Users/17031877/Desktop/SuNing/cross_sell_data_tmp1.txt'
  9. dealed_data = order_data.drop('member_id', axis=1) 
  10. dealed_data = pd.DataFrame(dealed_data).fillna(value=''

02.簡單的數據合并整理

  1. # 數據合并 
  2. dealed_data = dealed_data['top10'] + [" "] + dealed_data['top9'] + [" "] + dealed_data['top8'] + [" "] + \ 
  3.              dealed_data['top7'] + [" "] + dealed_data['top6'] + [" "] + dealed_data['top5'] + [" "] + dealed_data[ 
  4.                  'top4'] + [" "] + dealed_data['top3'] + [" "] + dealed_data['top2'] + [" "] + dealed_data['top1'
  5.  
  6. # 數據分列 
  7. dealed_data = [s.encode('utf-8').split() for s in dealed_data] 
  8.  
  9. # 數據拆分 
  10. train_data, test_data = train_test_split(dealed_data, test_size=0.3, random_state=42) 

03.模型訓練

  1. # 原始數據訓練 
  2. # sg=1,skipgram;sg=0,SBOW 
  3. # hs=1:hierarchical softmax,huffmantree 
  4. # nagative = 0 非負采樣 
  5. model = word2vec.Word2Vec(train_data, sg=1, min_count=10, window=2, hs=1, negative=0) 

接下來就是用 model 來訓練得到我們的推薦商品,這邊有三個思路,可以根據具體的業務需求和實際數據量來選擇:

相似商品映射表

  1. # 最后一次瀏覽商品最相似的商品組top3 
  2. x = 1000 
  3. result = [] 
  4. result = pd.DataFrame(result) 
  5. for i in range(x): 
  6.    test_data_split = [s.encode('utf-8').split() for s in test_data[i]] 
  7.    k = len(test_data_split) 
  8.    last_one = test_data_split[k - 1] 
  9.    last_one_recommended = model.most_similar(last_one, topn=3) 
  10.    tmp = last_one_recommended[0] + last_one_recommended[1] + last_one_recommended[2] 
  11.    last_one_recommended = pd.concat([pd.DataFrame(last_one), pd.DataFrame(np.array(tmp))], axis=0) 
  12.    last_one_recommended = last_one_recommended.T 
  13.    result = pd.concat([pd.DataFrame(last_one_recommended), result], axis=0) 

考慮用戶最后一次操作的關注物品 x,干掉那些已經被用戶購買的商品,剩下的商品表示用戶依舊有興趣但是因為沒找到合適的或者便宜的商品,通過商品向量之間的相似度,可以直接計算出,與其高度相似的商品推薦給用戶。

最大可能購買商品

根據歷史上用戶依舊購買的商品順序,判斷根據當前這個目標用戶近期買的商品,接下來他最有可能買什么?

比如歷史數據告訴我們,購買了手機+電腦的用戶,后一周內最大可能會購買背包,那我們就針對那些近期購買了電腦+手機的用戶去推送電腦包的商品給他,刺激他的潛在購物需求。

  1. # 向量庫 
  2. rbind_data = pd.concat( 
  3.    [order_data['top1'], order_data['top2'], order_data['top3'], order_data['top4'], order_data['top5'], 
  4.     order_data['top6'], order_data['top7'], order_data['top8'], order_data['top9'], order_data['top10']], axis=0) 
  5. x = 50 
  6. start = [] 
  7. output = [] 
  8. score_final = [] 
  9. for i in range(x): 
  10.    score = np.array(-100000000000000) 
  11.    name = np.array(-100000000000000) 
  12.    newscore = np.array(-100000000000000) 
  13.    tmp = test_data[i] 
  14.    k = len(tmp) 
  15.    last_one = tmp[k - 2] 
  16.    tmp = tmp[0:(k - 1)] 
  17.    for j in range(number): 
  18.        tmp1 = tmp[:] 
  19.        target = rbind_data_level[j] 
  20.        tmp1.append(target) 
  21.        test_data_split = [tmp1] 
  22.        newscore = model.score(test_data_split) 
  23.        if newscore > score: 
  24.            score = newscore 
  25.            name = tmp1[len(tmp1) - 1] 
  26.        else
  27.            pass 
  28.    start.append(last_one) 
  29.    output.append(name
  30.    score_final.append(score) 

聯想記憶推薦

在最大可能購買商品中,我們根據這個用戶近期的購買行為,從歷史已購用戶的購買行為數據發現規律,提供推薦的商品。

還有一個近似的邏輯,就是通過目標用戶最近一次的購買商品進行推測,參考的是歷史用戶的單次購買附近的數據,詳細如下:

這個實現也非常的簡單,這邊代碼我自己也沒有寫,就不貼了,采用的還是 word2vec 里面的predict_output_word(context_words_list, topn=10),Report the probability distribution of the center word given the context words as input to the trained model。

上述這些詳細做起來還是比較復雜的,我這邊也是簡單的貼了一些思路供大家參考和實踐。

責任編輯:武曉燕 來源: 數據分析網
相關推薦

2017-09-01 15:20:33

深度學習電商商品應用

2016-11-30 13:23:39

京東商品搜索商品搜索引擎

2017-09-06 16:44:00

機器學習京東深度學習

2017-06-08 11:54:40

億級推廣流量

2017-08-21 09:03:43

2016-12-01 17:52:00

人臉技術電商實踐

2017-11-27 08:59:43

2025-04-30 08:56:34

2022-02-20 22:16:44

ESLint工具JavaScript

2018-01-04 23:33:14

淘寶強化學習電商環境

2025-05-21 16:25:58

美圖阿里AI電商

2018-03-14 08:10:44

深度學習

2023-08-22 15:37:45

深度學習人工智能

2015-07-15 11:13:00

齊魯晚報

2021-10-18 11:54:46

2019-07-02 14:17:18

API網關網關流量

2015-09-09 14:50:53

億瑪電商

2015-04-20 10:12:30

谷歌搜索

2018-02-26 17:10:57

深度學習
點贊
收藏

51CTO技術棧公眾號

极品美女扒开粉嫩小泬| 国产精品免费观看高清| 成年人二级毛片| 警花av一区二区三区| 亚洲国产aⅴ成人精品无吗| 国产日韩欧美一区二区| 自拍偷拍第八页| 欧美天天在线| 一区二区三区日韩在线| 久久艹这里只有精品| brazzers在线观看| www欧美成人18+| 91久久极品少妇xxxxⅹ软件| 日本视频在线观看免费| 91精品成人| 亚洲视频在线免费观看| 丰满人妻一区二区三区53视频| 日韩激情电影免费看| 国产精品电影一区二区三区| 久久av二区| av av片在线看| 日韩国产在线一| 欧美精品电影免费在线观看| 中国1级黄色片| 色天下一区二区三区| 欧美一级二级在线观看| 国产无套粉嫩白浆内谢的出处| 第一av在线| 综合久久给合久久狠狠狠97色| 久久久一本精品99久久精品66| 国产xxxx孕妇| 久久激情五月婷婷| 国产精品极品美女在线观看免费| 国产 日韩 欧美 成人| 91亚洲国产高清| 亚洲性线免费观看视频成熟| 日批免费观看视频| 精品国产亚洲日本| 欧美狂野另类xxxxoooo| 成人av一级片| 91九色在线看| 亚洲午夜精品网| 日本一本草久p| 免费在线你懂的| 欧美—级在线免费片| 久久久久久久久久久久久久一区| 亚洲精品国产suv一区| 国产精品 日产精品 欧美精品| 国产精品视频中文字幕91| 福利网址在线观看| 老鸭窝91久久精品色噜噜导演| 欧美大秀在线观看| 久操免费在线视频| 欧美成人国产| 久久99亚洲热视| 男人操女人的视频网站| 91精品电影| 欧美成人精品在线观看| 欧美成人片在线观看| 在线中文一区| 九九热精品视频国产| 亚洲综合网在线| 欧美片第1页综合| 日韩中文字幕在线视频播放| 97精品在线播放| 亚洲精品成人无限看| 欧美成人手机在线| 免费在线视频观看| 亚洲精品社区| 欧美又大又粗又长| 中国女人一级一次看片| 久久se精品一区精品二区| 国产人妖伪娘一区91| 国产欧美熟妇另类久久久 | 专区另类欧美日韩| 欧美性受黑人性爽| av最新在线| 色婷婷综合中文久久一本| 天堂社区在线视频| 国产精品一站二站| 日韩大片免费观看视频播放| 欧美特黄一区二区三区| 欧美岛国激情| 久久久久久欧美| 国产无人区码熟妇毛片多| 天堂在线亚洲视频| 成人在线视频网站| 天天舔天天干天天操| 国产精品嫩草99a| 欧美狂野激情性xxxx在线观| 色是在线视频| 7878成人国产在线观看| 91九色蝌蚪porny| 欧美理论在线播放| 欧美人与物videos| 国产精品免费精品一区| 国产米奇在线777精品观看| 国产精品香蕉视屏| av影片免费在线观看| 亚洲免费观看高清完整| 动漫av网站免费观看| 亚洲日本中文| 精品亚洲一区二区三区四区五区| 国产探花视频在线播放| 亚洲激情午夜| 91精品久久久久久久久久| 五月婷婷六月丁香综合| 亚洲欧洲日韩av| 无码精品a∨在线观看中文| 亚洲三级在线| 尤物yw午夜国产精品视频| 麻豆疯狂做受xxxx高潮视频| 人人精品人人爱| 国产亚洲二区| 超碰在线caoporen| 91久久精品国产91性色tv| 日本精品一二三| 天天射天天综合网| 国产精品高清在线| 天天操天天操天天| 亚洲一区在线观看免费观看电影高清| 99草草国产熟女视频在线| 精品淫伦v久久水蜜桃| 久久天天躁夜夜躁狠狠躁2022| 亚洲av无码不卡| 91免费国产在线| 国产精品国产对白熟妇| 电影91久久久| 精品国产一区二区三区在线观看 | 免费日韩av电影| 日本电影在线观看| 宅男在线国产精品| 人妻无码一区二区三区免费| 亚洲专区一区| 久久国产精品 国产精品| 国产精品偷拍| 日韩午夜激情av| 久草综合在线视频| 久久电影国产免费久久电影| 日韩精品欧美专区| 色尼玛亚洲综合影院| 亚洲热线99精品视频| 毛片视频网站在线观看| av电影天堂一区二区在线| 300部国产真实乱| 欧美a级大片在线| 久久av.com| 99热这里精品| 亚洲精品国产成人久久av盗摄 | 91蝌蚪porny九色| 精品无码一区二区三区在线| 高清欧美性猛交xxxx黑人猛| 性欧美办公室18xxxxhd| 韩国av在线免费观看| 亚洲成人av资源| 国产成人精品无码片区在线| 一本色道久久综合亚洲精品高清 | 女人色偷偷aa久久天堂| 亚洲一区二区三区乱码aⅴ蜜桃女| 黄网站免费在线观看| 91精品国产黑色紧身裤美女| 中文字幕av播放| 国产二区国产一区在线观看| 欧美黑人在线观看| 波多野结衣一区二区三区免费视频| 欧美黑人性视频| 日韩在线观看视频网站| 欧美视频中文在线看| 中出视频在线观看| 日本免费新一区视频| 国产精品夜夜夜爽张柏芝| 视频一区中文字幕精品| 97久久国产精品| 日本一区高清| 欧美日韩免费视频| 久久免费公开视频| 99久久99久久久精品齐齐| 88av.com| 中文字幕亚洲综合久久五月天色无吗''| 99re视频在线| 日韩电影免费观看高清完整版| 中文字幕日本精品| 国产福利视频导航| 岛国精品视频在线播放| 老司机福利在线观看| 国产一区二区三区免费| 人妻av中文系列| 欧美日韩中文字幕一区二区三区| 亚洲sss综合天堂久久| 国内精彩免费自拍视频在线观看网址 | 日本中文字幕高清| 一区二区日韩欧美| 久久另类ts人妖一区二区| 亚洲国产一区二区久久| 2019av中文字幕| 天堂中文8资源在线8| 精品福利av导航| 在线免费一级片| 亚洲狠狠爱一区二区三区| 国产探花视频在线播放| 成人污污视频在线观看| 中文字幕 日韩 欧美| 99视频精品免费观看| 亚洲一区二区三区精品在线观看 | 亚洲美女在线视频| 国产一区二区三区三州| 福利二区91精品bt7086| 天天干中文字幕| 国产亚洲精品aa午夜观看| 日韩久久久久久久久久久| 欧美一级网站| 日韩免费在线观看av| 人人狠狠综合久久亚洲婷| 国产综合动作在线观看| 成人激情久久| 国产精品电影一区| 97人澡人人添人人爽欧美| 日韩有码视频在线| 国产高清一区在线观看| 亚洲国产免费av| 亚洲成人精品女人久久久| 欧美日韩在线精品一区二区三区激情| 一级片免费网址| 亚洲美女屁股眼交3| 黄大色黄女片18免费| xfplay精品久久| 视频免费在线观看| 国产激情视频一区二区在线观看 | 大伊香蕉精品视频在线| 国产精品久久久久一区二区三区厕所| 欧美一区二区三区四区夜夜大片 | 亚洲综合影院| 亚洲va欧美va国产综合久久| 91福利精品在线观看| 国产精品成熟老女人| 亚洲精品动漫| 欧美在线观看网址综合| 国产理论在线| 91国产视频在线播放| gogo高清午夜人体在线| 午夜精品久久久久久久99热| 超碰在线最新网址| 久久久久久免费精品| jizz一区二区三区| 欧美激情一区二区三区久久久 | 欧美日韩激情小视频| 日本午夜小视频| 亚洲第一狼人社区| 国产精品50页| 婷婷成人综合网| 成人午夜视频在线播放| 狠狠躁夜夜躁人人爽天天天天97 | 性伦欧美刺激片在线观看| 婷婷五月综合缴情在线视频| 亚洲三级观看| 日韩在线综合网| 美女日韩在线中文字幕| 精品免费国产一区二区| 日韩1区2区日韩1区2区| 超碰成人在线播放| 国产精品一区免费在线观看| 久久久国产精品久久久| www.一区二区| 六月婷婷七月丁香| 国产精品美女久久久久av爽李琼| 国产91在线播放九色| 日韩毛片视频在线看| 久久久久久久久久久久国产| 午夜精品国产更新| av片免费观看| 6080午夜不卡| 亚洲精品第五页| 亚洲摸下面视频| 欧美日韩在线看片| 欧美激情xxxx| 经典三级一区二区| 成人午夜两性视频| 国产精品白浆| 性欧美精品一区二区三区在线播放 | 中文字幕日韩一区二区三区不卡 | 不卡的日韩av| 日韩精品在线免费播放| 一区二区三区视频在线观看视频| 久久视频国产精品免费视频在线 | 欧美日韩免费| 狠狠干 狠狠操| 蜜臀av一区二区三区| 亚洲精品乱码久久久久久蜜桃欧美| 2020日本不卡一区二区视频| 四虎永久免费地址| 污片在线观看一区二区| 亚洲天堂自拍偷拍| 亚洲精品v天堂中文字幕| 中文字幕在线观看日本| 久久久之久亚州精品露出| 日本欧美一区| 国产伦精品一区二区三区照片| 五月激激激综合网色播| 国产在线无码精品| 视频一区二区三区在线| 精品国产鲁一鲁一区二区三区| 久久综合九色综合欧美亚洲| 无码人妻精品一区二区三区夜夜嗨| 欧美日韩一区免费| 精品国产无码AV| 亚洲天堂网在线观看| av蜜臀在线| 成人深夜直播免费观看| 欧美日韩爱爱| 黄色激情在线视频| 精品一区二区三区久久| 国产精品密蕾丝袜| 亚洲成人免费观看| av免费在线不卡| 日日摸夜夜添一区| av资源亚洲| 国产亚洲欧美一区二区| 你懂的一区二区| 亚洲天堂av一区二区| 国产性天天综合网| 日韩黄色一级大片| 精品精品欲导航| 亚洲精品一线| 成人国产精品免费视频| 欧美少妇xxxx| 日本黄色三级大片| 99视频在线观看一区三区| 久久国产精品二区| 日韩欧美激情在线| 亚洲综合伊人久久大杳蕉| 国产欧美一区二区三区四区| 国产精品嫩草影院在线看| 男人天堂网视频| 99精品视频在线播放观看| 国产精品18p| 精品国一区二区三区| 26uuu亚洲电影在线观看| 91精品在线观| 亚洲男女av一区二区| 成人日韩在线视频| 中文字幕一区免费在线观看| 伊人网av在线| 北条麻妃在线一区二区| 久久精品国产福利| 亚洲人成网站在线播放2019| 日本视频一区二区| 战狼4完整免费观看在线播放版| 欧美伊人久久久久久午夜久久久久| 能在线看的av| 国产成人精品免费久久久久| 欧美**字幕| 亚洲色图久久久| 国产精品毛片大码女人| 97精品人妻一区二区三区在线| 中文字幕一区二区三区电影| 99tv成人影院| 日韩黄色片在线| 国产精品自拍av| 九九九国产视频| 亚洲精品视频在线播放| 3d欧美精品动漫xxxx无尽| 色999日韩自偷自拍美女| 美女脱光内衣内裤视频久久网站| 老司机深夜福利网站| 欧美成人猛片aaaaaaa| 国产第一页在线| 日本不卡一区| 久久99国产精品久久| 久久久无码精品亚洲国产| 日韩精品极品毛片系列视频| 视频在线日韩| 超碰97免费观看| 波多野结衣视频一区| 黄色片中文字幕| 久久人体大胆视频| 大奶一区二区三区| 黄色av免费在线播放| 亚洲视频一区在线| 外国精品视频在线观看 | 亚洲午夜私人影院| 瑟瑟在线观看| 国产免费一区视频观看免费| 欧美大片一区| 草草影院第一页| 91麻豆精品国产综合久久久久久| 欧美xxx黑人xxx水蜜桃| 欧美一区二区三区在线免费观看| 美女性感视频久久| 久久免费在线观看视频| 一区二区在线视频| 亚洲成人黄色| 亚洲黄色a v| 亚洲国产三级在线| 91精品国产91久久久久游泳池| 91视频在线免费观看| 日韩精品91亚洲二区在线观看| 日本精品人妻无码77777| 亚洲欧洲国产一区| aaa国产精品视频| 日韩一区二区三区久久|