精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

如何從NumPy直接創(chuàng)建RNN?

人工智能 深度學(xué)習(xí)
使用成熟的Tensorflow、PyTorch框架去實(shí)現(xiàn)遞歸神經(jīng)網(wǎng)絡(luò)(RNN),已經(jīng)極大降低了技術(shù)的使用門(mén)檻。但是,對(duì)于初學(xué)者,這還是遠(yuǎn)遠(yuǎn)不夠的。知其然,更需知其所以然。

 使用成熟的Tensorflow、PyTorch框架去實(shí)現(xiàn)遞歸神經(jīng)網(wǎng)絡(luò)(RNN),已經(jīng)極大降低了技術(shù)的使用門(mén)檻。

但是,對(duì)于初學(xué)者,這還是遠(yuǎn)遠(yuǎn)不夠的。知其然,更需知其所以然。

[[347983]]

要避免低級(jí)錯(cuò)誤,打好理論基礎(chǔ),然后使用RNN去解決更多實(shí)際的問(wèn)題的話(huà)。

那么,有一個(gè)有趣的問(wèn)題可以思考一下:

不使用Tensorflow等框架,只有Numpy的話(huà),你該如何構(gòu)建RNN?

沒(méi)有頭緒也不用擔(dān)心。這里便有一項(xiàng)教程:使用Numpy從頭構(gòu)建用于NLP領(lǐng)域的RNN。

可以帶你行進(jìn)一遍RNN的構(gòu)建流程。

初始化參數(shù)

與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,RNN具有3個(gè)權(quán)重參數(shù),即:

輸入權(quán)重(input weights),內(nèi)部狀態(tài)權(quán)重(internal state weights)和輸出權(quán)重(output weights)

首先用隨機(jī)數(shù)值初始化上述三個(gè)參數(shù)。

之后,將詞嵌入維度(word_embedding dimension)和輸出維度(output dimension)分別初始化為100和80。

輸出維度是詞匯表中存在的唯一詞向量的總數(shù)。 

  1. hidden_dim = 100         
  2. output_dim = 80 # this is the total unique words in the vocabulary  
  3. input_weights = np.random.uniform(0, 1, (hidden_dim,hidden_dim))  
  4. internal_state_weights = np.random.uniform(0,1, (hidden_dim, hidden_dim))  
  5. output_weights = np.random.uniform(0,1, (output_dim,hidden_dim)) 

變量prev_memory指的是internal_state(這些是先前序列的內(nèi)存)。

其他參數(shù)也給予了初始化數(shù)值。

input_weight梯度,internal_state_weight梯度和output_weight梯度分別命名為dU,dW和dV。

變量bptt_truncate表示網(wǎng)絡(luò)在反向傳播時(shí)必須回溯的時(shí)間戳數(shù),這樣做是為了克服梯度消失的問(wèn)題。 

  1. prev_memory =  np.zeros((hidden_dim,1))  
  2. learning_rate = 0.0001      
  3. nepoch = 25                 
  4. T = 4   # length of sequence  
  5. bptt_truncate = 2   
  6. dU = np.zeros(input_weights.shape)  
  7. dV = np.zeros(output_weights.shape)  
  8. dW = np.zeros(internal_state_weights.shape) 

前向傳播

輸出和輸入向量

例如有一句話(huà)為:I like to play.,則假設(shè)在詞匯表中:

I被映射到索引2,like對(duì)應(yīng)索引45,to對(duì)應(yīng)索引10、**對(duì)應(yīng)索引64而標(biāo)點(diǎn)符號(hào).** 對(duì)應(yīng)索引1。

為了展示從輸入到輸出的情況,我們先隨機(jī)初始化每個(gè)單詞的詞嵌入。 

  1. input_string = [2,45,10,65]  
  2. embeddings = [] # this is the sentence embedding list that contains the embeddings for each word  
  3. for i in range(0,T):  
  4.     x = np.random.randn(hidden_dim,1)  
  5.     embeddings.append(x) 

輸入已經(jīng)完成,接下來(lái)需要考慮輸出。

在本項(xiàng)目中,RNN單元接受輸入后,輸出的是下一個(gè)最可能出現(xiàn)的單詞。

用于訓(xùn)練RNN,在給定第t+1個(gè)詞作為輸出的時(shí)候?qū)⒌趖個(gè)詞作為輸入,例如:在RNN單元輸出字為“like”的時(shí)候給定的輸入字為“I”.

現(xiàn)在輸入是嵌入向量的形式,而計(jì)算損失函數(shù)(Loss)所需的輸出格式是獨(dú)熱編碼(One-Hot)矢量。

這是對(duì)輸入字符串中除第一個(gè)單詞以外的每個(gè)單詞進(jìn)行的操作,因?yàn)樵撋窠?jīng)網(wǎng)絡(luò)學(xué)習(xí)只學(xué)習(xí)的是一個(gè)示例句子,而初始輸入是該句子的第一個(gè)單詞。

RNN的黑箱計(jì)算

現(xiàn)在有了權(quán)重參數(shù),也知道輸入和輸出,于是可以開(kāi)始前向傳播的計(jì)算。

訓(xùn)練神經(jīng)網(wǎng)絡(luò)需要以下計(jì)算:

其中:

U代表輸入權(quán)重、W代表內(nèi)部狀態(tài)權(quán)重,V代表輸出權(quán)重。

輸入權(quán)重乘以input(x),內(nèi)部狀態(tài)權(quán)重乘以前一層的激活(prev_memory)。

層與層之間使用的激活函數(shù)用的是tanh。 

  1. def tanh_activation(Z):  
  2.      return (np.exp(Z)-np.exp(-Z))/(np.exp(Z)-np.exp(-Z)) # this is the tanh function can also be written as np.tanh(Z)  
  3. def softmax_activation(Z):  
  4.         e_x = np.exp(Z - np.max(Z))  # this is the code for softmax function   
  5.         return e_x / e_x.sum(axis=0)   
  1. def Rnn_forward(input_embedding, input_weights, internal_state_weights, prev_memory,output_weights):  
  2.     forward_params = []  
  3.     W_frd = np.dot(internal_state_weights,prev_memory)  
  4.     U_frd = np.dot(input_weights,input_embedding)  
  5.     sum_s = W_frd + U_frd  
  6.     ht_activated = tanh_activation(sum_s) 
  7.     yt_unactivated = np.asarray(np.dot(output_weights,  tanh_activation(sum_s)))  
  8.     yt_activated = softmax_activation(yt_unactivated)  
  9.     forward_params.append([W_frd,U_frd,sum_s,yt_unactivated])  
  10.     return ht_activated,yt_activated,forward_params 

計(jì)算損失函數(shù)

之后損失函數(shù)使用的是交叉熵?fù)p失函數(shù),由下式給出:

 

  1. def calculate_loss(output_mapper,predicted_output):  
  2.     total_loss = 0  
  3.     layer_loss = []  
  4.     for y,y_ in zip(output_mapper.values(),predicted_output): # this for loop calculation is for the first equation, where loss for each time-stamp is calculated 
  5.          loss = -sum(y[i]*np.log2(y_[i]) for i in range(len(y)))  
  6.         lossloss = loss/ float(len(y)) 
  7.          layer_loss.append(loss)   
  8.     for i in range(len(layer_loss)): #this the total loss calculated for all the time-stamps considered together.   
  9.         total_losstotal_loss  = total_loss + layer_loss[i]  
  10.     return total_loss/float(len(predicted_output)) 

最重要的是,我們需要在上面的代碼中看到第5行。

正如所知,ground_truth output(y)的形式是[0,0,….,1,…0]和predicted_output(y^hat)是[0.34,0.03,……,0.45]的形式,我們需要損失是單個(gè)值來(lái)從它推斷總損失。

為此,使用sum函數(shù)來(lái)獲得特定時(shí)間戳下y和y^hat向量中每個(gè)值的誤差之和。

total_loss是整個(gè)模型(包括所有時(shí)間戳)的損失。

反向傳播

反向傳播的鏈?zhǔn)椒▌t:

如上圖所示:

Cost代表誤差,它表示的是y^hat到y(tǒng)的差值。

由于Cost是的函數(shù)輸出,因此激活a所反映的變化由dCost/da表示。

實(shí)際上,這意味著從激活節(jié)點(diǎn)的角度來(lái)看這個(gè)變化(誤差)值。

類(lèi)似地,a相對(duì)于z的變化表示為da/dz,z相對(duì)于w的變化表示為dw/dz。

最終,我們關(guān)心的是權(quán)重的變化(誤差)有多大。

而由于權(quán)重與Cost之間沒(méi)有直接關(guān)系,因此期間各個(gè)相對(duì)的變化值可以直接相乘(如上式所示)。

RNN的反向傳播

由于RNN中存在三個(gè)權(quán)重,因此我們需要三個(gè)梯度。input_weights(dLoss / dU),internal_state_weights(dLoss / dW)和output_weights(dLoss / dV)的梯度。

這三個(gè)梯度的鏈可以表示如下:

所述dLoss/dy_unactivated代碼如下: 

  1. def delta_cross_entropy(predicted_output,original_t_output):  
  2.     li = []  
  3.     grad = predicted_output  
  4.     for i,l in enumerate(original_t_output): #check if the value in the index is 1 or not, if yes then take the same index value from the predicted_ouput list and subtract 1 from it.  
  5.         if l == 1:  
  6.     #grad = np.asarray(np.concatenate( grad, axis=0 ))  
  7.             grad[i] -1 
  8.      return grad 

 

計(jì)算兩個(gè)梯度函數(shù),一個(gè)是multiplication_backward,另一個(gè)是additional_backward。

在multiplication_backward的情況下,返回2個(gè)參數(shù),一個(gè)是相對(duì)于權(quán)重的梯度(dLoss / dV),另一個(gè)是鏈梯度(chain gradient),該鏈梯度將成為計(jì)算另一個(gè)權(quán)重梯度的鏈的一部分。

在addition_backward的情況下,在計(jì)算導(dǎo)數(shù)時(shí),加法函數(shù)(ht_unactivated)中各個(gè)組件的導(dǎo)數(shù)為1。例如:dh_unactivated / dU_frd=1(h_unactivated = U_frd + W_frd),且dU_frd / dU_frd的導(dǎo)數(shù)為1。

所以,計(jì)算梯度只需要這兩個(gè)函數(shù)。multiplication_backward函數(shù)用于包含向量點(diǎn)積的方程,addition_backward用于包含兩個(gè)向量相加的方程。

 

  1. def multiplication_backward(weights,x,dz):  
  2.     gradient_weight = np.array(np.dot(np.asmatrix(dz),np.transpose(np.asmatrix(x))))  
  3.     chain_gradient = np.dot(np.transpose(weights),dz)  
  4.     return gradient_weight,chain_gradient  
  5. def add_backward(x1,x2,dz):    # this function is for calculating the derivative of ht_unactivated function  
  6.     dx1 = dz * np.ones_like(x1)  
  7.     dx2 = dz * np.ones_like(x2)  
  8.     return dx1,dx2  
  9. def tanh_activation_backward(x,top_diff):  
  10.     output = np.tanh(x)  
  11.     return (1.0 - np.square(output)) * top_diff 

至此,已經(jīng)分析并理解了RNN的反向傳播,目前它是在單個(gè)時(shí)間戳上實(shí)現(xiàn)它的功能,之后可以將其用于計(jì)算所有時(shí)間戳上的梯度。

如下面的代碼所示,forward_params_t是一個(gè)列表,其中包含特定時(shí)間步長(zhǎng)的網(wǎng)絡(luò)的前向參數(shù)。

變量ds是至關(guān)重要的部分,因?yàn)榇诵写a考慮了先前時(shí)間戳的隱藏狀態(tài),這將有助于提取在反向傳播時(shí)所需的信息。 

  1. def single_backprop(X,input_weights,internal_state_weights,output_weights,ht_activated,dLo,forward_params_t,diff_s,prev_s):# inlide all the param values for all the data thats there 
  2.     W_frd = forward_params_t[0][0]   
  3.     U_frd = forward_params_t[0][1]  
  4.     ht_unactivated = forward_params_t[0][2]  
  5.     yt_unactivated = forward_params_t[0][3]  
  6.     dV,dsv = multiplication_backward(output_weights,ht_activated,dLo)  
  7.     ds = np.add(dsv,diff_s) # used for truncation of memory   
  8.     dadd = tanh_activation_backward(ht_unactivated, ds)  
  9.     dmulw,dmulu = add_backward(U_frd,W_frd,dadd)  
  10.     dW, dprev_s = multiplication_backward(internal_state_weights, prev_s ,dmulw)  
  11.     dU, dx = multiplication_backward(input_weights, X, dmulu) #input weights  
  12.     return (dprev_s, dU, dW, dV) 

對(duì)于RNN,由于存在梯度消失的問(wèn)題,所以采用的是截?cái)嗟姆聪騻鞑?,而不是使用原始的?/p>

在此技術(shù)中,當(dāng)前單元將只查看k個(gè)時(shí)間戳,而不是只看一次時(shí)間戳,其中k表示要回溯的先前單元的數(shù)量。 

  1. def rnn_backprop(embeddings,memory,output_t,dU,dV,dW,bptt_truncate,input_weights,output_weights,internal_state_weights):  
  2.     T = 4  
  3.     # we start the backprop from the first timestamp.   
  4.     for t in range(4): 
  5.          prev_s_t = np.zeros((hidden_dim,1)) #required as the first timestamp does not have a previous memory,  
  6.  
  7.         diff_s = np.zeros((hidden_dim,1)) # this is used for the truncating purpose of restoring a previous information from the before level  
  8.         predictions = memory["yt" + str(t)]  
  9.         ht_activated = memory["ht" + str(t)]  
  10.         forward_params_t = memory["params"+ str(t)]   
  11.         dLo = delta_cross_entropy(predictions,output_t[t]) #the loss derivative for that particular timestamp  
  12.         dprev_s, dU_t, dW_t, dV_t = single_backprop(embeddings[t],input_weights,internal_state_weights,output_weights,ht_activated,dLo,forward_params_t,diff_s,prev_s_t) 
  13.          prev_s_t = ht_activated  
  14.         prev = t-1  
  15.         dLo = np.zeros((output_dim,1)) #here the loss deriative is turned to 0 as we do not require it for the turncated information.  
  16.         # the following code is for the trunated bptt and its for each time-stamp.  
  17.          for i in range(t-1,max(-1,t-bptt_truncate),-1): 
  18.              forward_params_t = memory["params" + str(i)]  
  19.             ht_activated = memory["ht" + str(i)]  
  20.             prev_s_i = np.zeros((hidden_dim,1)) if i == 0 else memory["ht" + str(prev)]  
  21.             dprev_s, dU_i, dW_i, dV_i = single_backprop(embeddings[t] ,input_weights,internal_state_weights,output_weights,ht_activated,dLo,forward_params_t,dprev_s,prev_s_i) 
  22.             dU_t += dU_i #adding the previous gradients on lookback to the current time sequence   
  23.             dW_t += dW_i  
  24.         dV += dV_t   
  25.         dU += dU_t  
  26.         dW += dW_t  
  27.     return (dU, dW, dV) 

權(quán)重更新

一旦使用反向傳播計(jì)算了梯度,則更新權(quán)重勢(shì)在必行,而這些是通過(guò)批量梯度下降法 

  1. def gd_step(learning_rate, dU,dW,dV, input_weights, internal_state_weights,output_weights ):  
  2.     input_weights -learning_rate* dU  
  3.     internal_state_weights -learning_rate * dW  
  4.     output_weights -=learning_rate * dV  
  5.     return input_weights,internal_state_weights,output_weights 

訓(xùn)練序列

完成了上述所有步驟,就可以開(kāi)始訓(xùn)練神經(jīng)網(wǎng)絡(luò)了。

用于訓(xùn)練的學(xué)習(xí)率是靜態(tài)的,還可以使用逐步衰減等更改學(xué)習(xí)率的動(dòng)態(tài)方法。 

  1. def train(T, embeddings,output_t,output_mapper,input_weights,internal_state_weights,output_weights,dU,dW,dV,prev_memory,learning_rate=0.001, nepoch=100evaluate_loss_after=2): 
  2.      losses = []  
  3.     for epoch in range(nepoch):  
  4.         if(epoch % evaluate_loss_after == 0):  
  5.                 output_string,memory = full_forward_prop(T, embeddings ,input_weights,internal_state_weights,prev_memory,output_weights)  
  6.                 loss = calculate_loss(output_mapper, output_string)  
  7.                 losses.append(loss)  
  8.                 time = datetime.now().strftime('%Y-%m-%d %H:%M:%S')  
  9.                 print("%s: Loss after  epoch=%d: %f" % (time,epoch, loss))  
  10.                 sys.stdout.flush()  
  11.         dU,dW,dV = rnn_backprop(embeddings,memory,output_t,dU,dV,dW,bptt_truncate,input_weights,output_weights,internal_state_weights)  
  12.         input_weights,internal_state_weights,output_weightssgd_step(learning_rate,dU,dW,dV,input_weights,internal_state_weights,output_weights)  
  13.     return losses  
  1. losses = train(T, embeddings,output_t,output_mapper,input_weights,internal_state_weights,output_weights,dU,dW,dV,prev_memory,learning_rate=0.0001, nepoch=10evaluate_loss_after=2

恭喜你!你現(xiàn)在已經(jīng)實(shí)現(xiàn)從頭建立遞歸神經(jīng)網(wǎng)絡(luò)了!

那么,是時(shí)候了,繼續(xù)向LSTM和GRU等的高級(jí)架構(gòu)前進(jìn)吧。 

 

責(zé)任編輯:龐桂玉 來(lái)源: 深度學(xué)習(xí)這件小事
相關(guān)推薦

2021-01-15 13:28:53

RNNPyTorch神經(jīng)網(wǎng)絡(luò)

2018-01-26 09:02:30

LinuxPDF創(chuàng)建視頻

2009-06-26 11:15:08

JSF入手JSP

2025-03-21 14:31:14

NumPyPython數(shù)組

2020-12-15 10:14:47

NumPynanPython

2010-07-07 16:53:50

UML順序圖

2018-05-18 10:06:30

開(kāi)發(fā)者技能命令

2009-09-22 13:41:10

直接使用Hiberna

2020-08-20 07:00:00

人工智能深度學(xué)習(xí)技術(shù)

2017-11-20 05:41:41

數(shù)組矩陣NumPy

2017-06-19 15:12:30

Uber神經(jīng)網(wǎng)絡(luò)事件預(yù)測(cè)

2020-05-07 19:46:18

LinuxMySQLMariaDB

2021-04-30 16:04:03

PythonNumPy元組

2017-04-14 15:28:27

1-Numpy基礎(chǔ)多維數(shù)組

2016-09-20 13:02:12

CLinuxAutotool

2018-11-30 10:55:03

Windows 7Windows 10Linux USB盤(pán)

2010-09-08 15:59:36

2010-11-04 09:43:46

LINQ to SQL

2011-05-16 13:40:13

MySQL儲(chǔ)存圖片

2024-10-15 08:57:08

Go語(yǔ)言切片
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

精品99又大又爽又硬少妇毛片| 精品欧美一区二区久久久| 一本一道波多野毛片中文在线| 另类人妖一区二区av| 久久精品亚洲精品| 黄色性视频网站| 日韩电影免费观| 亚洲视频一二区| 久久国产精品-国产精品| 波多野结衣一区二区在线 | 亚洲作爱视频| 在线观看视频亚洲| 国产毛片视频网站| 中文字幕在线免费| kk眼镜猥琐国模调教系列一区二区| 国产成人精品免高潮在线观看| 538精品在线观看| 精品国产午夜| 国产在线不卡一区二区三区| 丁香六月久久综合狠狠色| 国产不卡av在线| 欧美毛片在线观看| 日韩av在线播放网址| 精品人伦一区二区色婷婷| 色诱视频在线观看| 超碰在线97国产| 国产精品视频免费看| 国产丝袜不卡| 精品人妻一区二区三区换脸明星 | www.色就是色| 欧美伦理91| 一区二区三区.www| 桥本有菜av在线| 国产黄在线看| 久久综合久久鬼色中文字| 99电影在线观看| 国产色片在线观看| 久热成人在线视频| 国产精品video| 日韩 欧美 中文| 精品999日本| 欧美美最猛性xxxxxx| 开心激情五月网| 日本不卡二三区| 在线看日韩欧美| 男人舔女人下部高潮全视频| 杨幂一区二区三区免费看视频| 亚洲国产高清自拍| 久草福利在线观看| 电影91久久久| 日韩亚洲欧美中文三级| 午夜精品免费看| 亚洲男男av| 欧美日韩国产另类一区| 日本在线一二三区| 色综合视频一区二区三区44| 欧美日韩一区二区三区在线看| 久久午夜夜伦鲁鲁一区二区| 成人黄色毛片| 欧美日韩午夜在线视频| 国产精品区在线| 日韩一区二区三区四区五区| 在线成人午夜影院| 少妇愉情理伦片bd| 97品白浆高清久久久久久| 日韩欧美123| www.17c.com喷水少妇| 国产精品xxxav免费视频| 亚洲国产日韩欧美在线动漫| 李宗瑞91在线正在播放| 精品国产aⅴ| 精品国偷自产在线视频99| 青花影视在线观看免费高清| 欧美激情日韩| 性欧美长视频免费观看不卡| 在线天堂中文字幕| 日本在线观看不卡视频| 国产精品视频久久久久| 国产免费视频一区二区三区| 高清不卡一区二区在线| 精品乱码一区二区三区| 国产精品免费观看| 亚洲欧美综合网| 日韩五码在线观看| 日韩一区二区三区在线免费观看 | 欧美好骚综合网| 久热精品视频在线| 精品在线播放视频| 日韩和的一区二区| 亚洲最大av网| 色视频免费在线观看| 国产精品久久午夜| 国产一二三在线视频| 成人做爰视频www网站小优视频| 欧美色综合久久| 美女久久久久久久久| 精品日韩欧美一区| 久久久噜久噜久久综合| 成人免费视频国产免费| 国产高清亚洲一区| 日韩免费av一区二区三区| 国产精品www在线观看| 国产情侣在线播放| 99久久婷婷国产综合精品电影 | 香蕉国产在线视频| 中文字幕av一区二区三区高| 久久av综合网| 欧美黑粗硬大| 精品五月天久久| 免费成年人视频在线观看| 男女精品网站| 电影午夜精品一区二区三区| av在线电影免费观看| 亚洲成人免费影院| 亚洲欧美日韩三级| 国产99久久| 性色av一区二区三区| 国产精品久久久久久无人区| 久久久久久黄色| 欧美视频在线观看视频 | 亚洲xxxx在线| 98在线视频| 欧美性猛交xxxx富婆弯腰| 午夜影院免费版| 日韩啪啪电影网| 日本成人激情视频| 男人的天堂a在线| 亚洲欧美欧美一区二区三区| 人人干人人视频| 五月天亚洲色图| 亚洲男人的天堂在线观看| 欧美人与性动交a欧美精品| 男人午夜免费视频| 成人综合婷婷国产精品久久蜜臀 | 午夜国产精品视频| 国产精品亚洲视频在线观看| 免费看男男www网站入口在线| 亚洲国产欧美一区二区三区丁香婷| 日本在线播放一区二区| 黄网站app在线观看| 亚洲视频综合| 国产欧美日韩专区发布| 国模吧精品人体gogo| 欧美日韩国产一区中文午夜| 动漫av在线免费观看| 91精品久久久久久久蜜月| 国产精品久久久久久久久影视| 日韩精品系列| 色婷婷综合久久久中文字幕| 亚洲天堂网一区二区| 99人久久精品视频最新地址| 亚洲综合社区网| 2024最新电影免费在线观看| 日韩一区二区三区免费看 | 精品福利在线观看| 三级视频网站在线观看| 精品电影一区| 国产一级二级三级精品| 欧美gv在线| 亚洲桃花岛网站| 高潮无码精品色欲av午夜福利| 国产欧美一区二区精品性| 无码少妇一区二区三区芒果| 欧美日韩国产免费观看视频| 国产精品一区久久| 黄色网在线免费看| 欧美成人一区二区三区| 精品亚洲永久免费| 91香蕉视频污在线| 日韩一级片播放| 999视频精品| 国产精品极品在线| 成人在线免费看片| 亚洲精品成a人ⅴ香蕉片| 91精品啪在线观看国产60岁| 91视频青青草| 成人激情动漫在线观看| 黄色动漫网站入口| 不卡在线一区二区| 亚洲自拍小视频免费观看| 91九色美女在线视频| 日韩av最新在线观看| 在线免费观看av网址| 亚洲男女一区二区三区| 国产51自产区| 日韩在线一二三区| 成人在线免费观看网址| 视频福利一区| 91免费版网站入口| 欧美男人天堂| 亚洲精品一区二区久| 最新中文字幕一区| 亚洲人成网站在线| 日本xxxx裸体xxxx| 精品在线免费观看| 无罩大乳的熟妇正在播放| 日韩中字在线| 国产伦精品一区| 欧美爱爱视频| 欧美一区二区.| 国产网站在线免费观看| 欧美xxxx在线观看| 中文字幕你懂的| 亚洲18色成人| 日韩精品123区| 久久精品无码一区二区三区| 日本一区二区三区在线免费观看| 日韩精品一级二级 | 91精品国产综合久久婷婷香蕉| 日韩三级小视频| 最新国产精品久久精品| 播金莲一级淫片aaaaaaa| 国产精品中文有码| 国产精品涩涩涩视频网站| 亚洲第一黄网| 9l视频自拍9l视频自拍| 精品国产精品国产偷麻豆| 国产精品青青草| 亚洲精品一区av| 国产精品海角社区在线观看| 黄视频免费在线看| 欧美另类第一页| 麻豆传媒视频在线| 亚洲四色影视在线观看| 午夜视频www| 精品国产伦一区二区三区观看体验| 亚洲午夜精品久久久| 色偷偷88欧美精品久久久| 久久成人在线观看| 亚洲欧美在线另类| 亚洲一二三四视频| 国产日韩欧美综合一区| 风间由美一二三区av片| 高清在线成人网| 手机看片国产精品| 激情欧美一区二区| 亚洲欧美日韩精品一区| 免费精品视频最新在线| 成人在线观看黄| 久久99伊人| 男人天堂999| 久久精品麻豆| 免费黄色特级片| 久久久久99| 日本xxxxxxx免费视频| 久久国产精品亚洲77777| 成人在线免费在线观看| 国产日韩视频| 男人操女人逼免费视频| 一二三区精品| 日韩毛片在线免费看| 丝袜美腿亚洲一区| 国产三级三级三级看三级| 日本最新不卡在线| 污污动漫在线观看| 经典一区二区三区| 三上悠亚 电影| 成人精品一区二区三区中文字幕| 男女一区二区三区| 久久女同互慰一区二区三区| 美女被到爽高潮视频| 国产女人aaa级久久久级| 快灬快灬一下爽蜜桃在线观看| 中文字幕av一区二区三区高 | 欧美日韩久久| 国产精品成人久久电影| 国产日本精品| 天天天干夜夜夜操| 久久se精品一区精品二区| 色男人天堂av| caoporn国产精品| 国精产品一区一区三区免费视频| 中文一区在线播放| 九九热精品在线观看| 精品福利在线看| 在线观看黄色网| 日韩欧美国产一二三区| 人妻少妇一区二区三区| 国产香蕉精品视频一区二区三区| 黄网页在线观看| 98精品国产自产在线观看| 精品国模一区二区三区| 91久久国产婷婷一区二区| 精品av导航| 日韩视频在线播放| 欧美成人中文| 国产视频在线视频| 国产成人aaa| 国产精品天天干| 亚洲精品免费看| 欧美亚洲另类小说| 日韩欧美激情在线| 激情视频在线观看免费| 欧美大胆在线视频| 欧美日韩电影免费看| 91热福利电影| 欧美极品在线观看| 国产精品三级一区二区| 日本aⅴ免费视频一区二区三区| 99riav国产精品视频| 国产日韩欧美制服另类| jizz国产免费| 欧美美女一区二区在线观看| 五月天福利视频| 美日韩精品免费视频| 三上悠亚激情av一区二区三区 | 中文字幕avav| 国产偷国产偷亚洲高清人白洁| 极品盗摄国产盗摄合集| 色婷婷亚洲精品| 人妻精品一区二区三区| 久久精品国产精品亚洲| 日韩国产激情| 国内视频一区| 亚洲电影在线一区二区三区| 不卡av免费在线| 2022国产精品视频| 久久久久久久中文字幕| 欧美精品丝袜久久久中文字幕| 日本一区视频| 97国产在线视频| 91夜夜蜜桃臀一区二区三区| 永久免费在线看片视频| 免费在线观看视频一区| 免费黄色在线视频| 天天亚洲美女在线视频| 亚洲av无码乱码国产麻豆| www.精品av.com| 欧美综合影院| 色乱码一区二区三在线看| 国产精品久久久一区二区| 在线观看亚洲免费视频| 一区二区在线看| 一区二区三区精| 在线性视频日韩欧美| 亚洲第一影院| 日本一区视频在线观看| 久久久久久穴| 性少妇bbw张开| 色综合天天综合网天天看片| 亚洲av成人无码网天堂| 欧美激情视频给我| 6080亚洲理论片在线观看| 欧美性受xxxx黑人猛交88| 久久精品国产一区二区三| 青青青视频在线播放| 欧美影视一区二区三区| sese一区| 国产色综合天天综合网| 久久高清精品| 亚洲天堂伊人网| 自拍偷在线精品自拍偷无码专区| 91美女精品网站| 不卡av在线播放| 亚洲日本一区二区三区在线| 99久久免费观看| 成人精品在线视频观看| 女人十八岁毛片| 亚洲女人初尝黑人巨大| 成人看片网页| 宅男噜噜99国产精品观看免费| 久久99日本精品| 国产精品 欧美激情| 日韩精品综合一本久道在线视频| 啪啪免费视频一区| 精品国产免费久久久久久尖叫| 亚洲在线视频| 一级在线观看视频| 91精品国产综合久久婷婷香蕉| 曰本三级在线| 黄色小网站91| 免费的国产精品| avove在线播放| 亚洲精品美女视频| 视频一区在线免费看| 最新精品视频| aaa欧美色吧激情视频| 久久精品五月天| 欧美精品性视频| 亚洲人成伊人成综合图片| 色啦啦av综合| 精品久久久久久久久久久久久| 国产美女性感在线观看懂色av | 三年中国国语在线播放免费| 亚洲欧美一区二区三区久本道91 | 精人妻无码一区二区三区| 色偷偷91综合久久噜噜| 91成人午夜| 日韩肉感妇bbwbbwbbw| 亚洲一区二区中文在线| 欧美男男同志| 91文字幕巨乱亚洲香蕉| 日日骚欧美日韩| 日日骚一区二区三区| 亚洲视频在线视频| 三级欧美日韩| 日韩av手机版| 天天av天天翘天天综合网色鬼国产 | 蜜臀久久久久久久| 日本一区二区欧美|