精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

維度、廣播操作與可視化:如何高效使用TensorFlow

開發 開發工具
本文從 Tensorflow 基礎、理解靜態維度和動態維度、廣播操作(Broadingcast 的好處和壞處)、使用 Python 操作的原型內核和先進的可視化等幾個方面詳細梳理如何高效使用TensorFlow。

一、Tensorflow 基礎

TensorFlow 和其他諸如 numpy 之類的數學計算庫的根本區別在于:在 TensorFlow 中,運算操作是符號化的。這是一個強大的思想,它能夠讓 TensorFlow 做任何事情(例如,自動求微分),而這些事情對于 numpy 等命令式的庫而言是不可能完成的。但是這也導致了隨之而來的代價,就是掌握這個庫會相對困難一些。在本文中,作者會嘗試揭開 TensorFlow 的神秘面紗,并提供一些關于高效使用 TensorFlow 的指南和實踐例子。

TensorFlow

讓我們以一個簡單的例子開始,我們想讓兩個隨機矩陣相乘。首先我們看一下用 numpy 來實現這個例子:

  1. import numpy as np 
  2.  
  3. x = np.random.normal(size=[10, 10]) 
  4. y = np.random.normal(size=[10, 10]) 
  5. z = np.dot(x, y)print(z) 

這樣的計算在 TensorFlow 中會是什么樣子?

結果如下:

  1. import tensorflow as tf 
  2.  
  3. x = tf.random_normal([10, 10]) 
  4. y = tf.random_normal([10, 10]) 
  5. z = tf.matmul(x, y) 
  6.  
  7. sess = tf.Session() 
  8. z_val = sess.run(z)print(z_val) 

與 numpy 直接執行計算并將結果復制到變量 z 中的思路不同的是,TensorFlow 僅僅給圖中代表結果的節點給提供了一個操作。如果我們直接打印 z 的值,我們會得到下面的信息:

  1. Tensor("MatMul:0", shape=(10, 10), dtype=float32

由于兩個輸入矩陣都有被完全定義的維度,TensorFlow 還能夠在指定張量的維度的同時指定它的數據類型。為了計算出張量的值,我們需要使用 Session.run() 這個函數來創建一個會話。

Tip:在使用 Jupyter notebook 的時候,要確保在開始的時候調用一下 tf.reset_default() 函數,以在定義新節點之前清空符號圖。

為了理解符號計算有多么強大,讓我們來看一下另一個例子。假設我們有一些一條曲線上的樣本點(例如曲線是 f(x) = 5x^2 + 3),但是我們想要在不知道參數的情況下來估計這個函數 f(x)。我們定義一個含參數的函數 g(x, w) = w0 x^2 + w1 x + w2,它是關于輸入數據 x 和隱藏參數 w 的函數,我們的目標就是找到這組隱藏參數,使得 g(x, w) ≈ f(x)。我們可以通過最小化下面的損失函數 L(w) 來實現:L(w) = (f(x) - g(x, w))^2。盡管這個簡單的問題已經有一個閉合的解決方法了,但我們還是選擇使用一個更加通用的方法,這個方法能夠被應用在任何可微分的函數中,它使用了隨機梯度降的方法。我們簡單地計算損失函數 L(w) 在一組樣本點上關于 w 的平均梯度,然后朝著梯度的反方向變化參數 w。

下面展示了這個方法在 TensorFlow 中是如何實現的:

  1. import numpy as np 
  2. import tensorflow as tf 
  3.  
  4. # 使用占位符從python向TensorFlow運算符中傳遞參數值。我們在這里定義了兩個占位符,其中一個用來存放輸入特征x,另一個用來存放輸出y. 
  5. x = tf.placeholder(tf.float32) 
  6. y = tf.placeholder(tf.float32) 
  7.  
  8. # 假設我們已經知道了期望的函數是一個二次多項式,我們就會分配一個具有3個元素的向量來代表這些參數。這些變量會被以隨機地進行初始化。 
  9. w = tf.get_variable("w", shape=[3, 1]) 
  10. # 我們定義yhat為我們對y的估計值 
  11. f = tf.stack([tf.square(x), x, tf.ones_like(x)], 1) 
  12. yhat = tf.squeeze(tf.matmul(f, w), 1) 
  13. # 損失函數被定義為y的估計值和真實值之間地l2距離。我們還附加了一個收縮項,以確保結果得到的權值會比較小。 
  14. loss = tf.nn.l2_loss(yhat - y) + 0.1 * tf.nn.l2_loss(w) 
  15. # 我們以0.1的學習率使用Adam優化器來最小化損失函數。 
  16. train_op = tf.train.AdamOptimizer(0.1).minimize(loss) 
  17. def generate_data(): 
  18.     x_val = np.random.uniform(-10.0, 10.0, size=100
  19.     y_val = 5 * np.square(x_val) + 3 
  20.     return x_val, y_val 
  21.  
  22. sess = tf.Session() 
  23. # 因為我們要使用這些變量,所以我們需要先將它們初始化 
  24. sess.run(tf.global_variables_initializer()) 
  25. for _ in range(1000): 
  26.     x_val, y_val = generate_data() 
  27.     _, loss_val = sess.run([train_op, loss], {x: x_val, y: y_val}) 
  28.     print(loss_val) 
  29.     print(sess.run([w])) 

運行完這段代碼之后,我得到的參數結果是:

  1. [4.98605919,-0.00187828875e-04,3.8395009] 

上面是編輯運行完之后的結果,它對應的損失值是 17.6175. 每一次的具體結果都會不同,但是最終結果都很接近期望的函數值。下面是原文作者提供的值。

  1. [4.9924135,0.00040895029, 3.4504161] 

這是與期望參數相當接近的近似。

這只是 TensorFlow 能夠做到的事情的冰山一角而已。很多類似于優化具有上百萬個參數的大型神經網絡的問題都能夠用 TensorFlow 以很少量的代碼來高效地實現。與此同時,TensorFlow 的開發團隊還致力于在多種設備、多線程以及支持多平臺等問題上更進一步。

簡單起見,在絕大多數例子中我們都手動地創建了會話,我們并沒有保存和加載 checkpoint,但是這卻是我們在實戰中經常需要做的事情。你很可能想著使用估計 API 來進行會話管理以及做日志。我們在 code/framework 路徑下提供了一個簡單的可擴展架構,作為使用 TensorFlow 來訓練神經網絡的一個實際架構的例子。

理解靜態維度和動態維度

TensorFlow 中的張量具有靜態維度的屬性,它在構建圖的時候就被確定好了。靜態維度也有可能是不確定的。舉個例子,我們也許會定義一個維度為 [None,128] 的張量。

  1. import tensorflow as tf 
  2.  
  3. a = tf.placeholder([None, 128]) 

這意味著***個維度可以是任意大小,會在 Session.run() 的過程中被動態地決定。在表現靜態張量的時候,TensorFlow 有著相當丑的 API:

  1. static_shape = a.get_shape().as_list()  # returns [None, 128] 

(這個應該寫成 a,shape() 的形式,但是這里有人把它定義得太不方便了。)

為獲得張量的動態形式,你可以調用 tf.shape 功能,它會返回一個表示給定張量的形狀的張量:

  1. dynamic_shape = tf.shape(a) 

一個張量的靜態維度可以使用 Tensor.set_shape() 函數來進行設置。

  1. a.set_shape([32, 128]) 

僅當你知道自己在做什么的時候再使用這個函數,事實上使用 tf.reshape() 會更加安全。

  1. a =  tf.reshape(a, [32, 128]) 

如果有一個函數能在方便的時候返回靜態維度,在可用的時候返回動態維度,那將會很方便。下面就定義了這樣一個函數:

  1. def get_shape(tensor): 
  2.   static_shape = tensor.get_shape().as_list() 
  3.   dynamic_shape = tf.unstack(tf.shape(tensor)) 
  4.   dims = [s[1] if s[0] is None else s[0] 
  5.           for s in zip(static_shape, dynamic_shape)]   
  6.   return dims 

現在設想:我們想通過折疊第二維和第三維來把一個 3 維的矩陣轉換成一個 2 維的矩陣。我們可以使用上述的 get_shape() 函數來完成這件事:

  1. b = placeholder([None, 10, 32]) 
  2. shape = get_shape(tensor) 
  3. b = tf.reshape(b, [shape[0], shape[1] * shape[2]]) 

值得注意的是,這里無論矩陣是不是靜態的,這個方法都能奏效。

事實上我們可以寫一個更加具有通用目標的函數來折疊任何幾個維度:

  1. import tensorflow as tfimport numpy as np 
  2. def reshape(tensor, dims_list): 
  3.   shape = get_shape(tensor) 
  4.   dims_prod = [] 
  5.   for dims in dims_list: 
  6.       if isinstance(dims, int): 
  7.       dims_prod.append(shape[dims])     
  8.       elif all([isinstance(shape[d], int) for d in dims]): 
  9.       dims_prod.append(np.prod([shape[d] for d in dims]))     
  10.       else: 
  11.       dims_prod.append(tf.prod([shape[d] for d in dims])) 
  12.   tensor = tf.reshape(tensor, dims_prod)   
  13.   return tensor 

然后折疊第二個維度就變得非常容易了。

  1. b = placeholder([None, 10, 32]) 
  2. b = tf.reshape(b, [0, [1, 2]]) 

廣播操作

TensorFlow 支持廣播逐個元素的操作。正常情況下,當你想執行類似于加法和乘法的操作時,你需要確保算子的維度是匹配的。例如,你不能把一個維度為 [3,2] 的張量與一個維度為 [3,4] 的張量相加。但是在一個特殊的情況下你可以使用異常的維度。TensorFlow 會隱式地把一個張量的異常維度調整到與另一個算子相匹配的維度以實現維度兼容。所以將一個維度為 [3,2] 的張量與一個維度為 [3,1] 的張量相加是合法的。

  1. import tensorflow as tf 
  2.  
  3. a = tf.constant([[1., 2.], [3., 4.]]) 
  4. b = tf.constant([[1.], [2.]])# c = a + tf.tile(a, [1, 2])c = a + 

廣播允許我們執行隱式調整,這能夠讓代碼更短,更加高效地使用內存,因為我們不需要存儲調整操作中間結果的內存開銷。這個方法可以被用在一個場景中:那就是結合不同長度的特征。為了連接不同長度的特征,我們通常會把輸入張量進行調整,然后把結果連接起來并應用一些非線性處理方法。這是很多神經網絡中的常用方法。

  1. a = tf.random_uniform([5, 3, 5]) 
  2. b = tf.random_uniform([5, 1, 6]) 
  3.  
  4. # concat a and b and apply nonlinearity 
  5.  
  6. tiled_b = tf.tile(b, [1, 3, 1]) 
  7. c = tf.concat([a, tiled_b], 2) 
  8. d = tf.layers.dense(c, 10, activation=tf.nn.relu) 

但是這個可以用廣播的方法做得更加有效。我們可以利用 f(m(x + y)) 等價于 f(mx + my) 這一事實。所以我們可以將線性操作分開處理,然后使用廣播的方法去做隱式的連接。

  1. pa = tf.layers.dense(a, 10, activation=None
  2. pb = tf.layers.dense(b, 10, activation=None
  3. d = tf.nn.relu(pa + pb) 

事實上這段代碼是相當通用的,只要張量之間能夠進行廣播操作,它就能夠被用于任何維度的張量上。

  1. def tile_concat_dense(a, b, units, activation=tf.nn.relu): 
  2.     pa = tf.layers.dense(a, units, activation=None
  3.     pb = tf.layers.dense(b, units, activation=None
  4.     c = pa + pb    if activation is not None: 
  5.         c = activation(c)     
  6. return c 

到目前為止,我們討論了廣播操作的好的一面。你會問,那么它不好的一面是什么呢?隱式的假設總會讓調試變得更加難。看一下下面的例子:

  1. a = tf.constant([[1.], [2.]]) 
  2. b = tf.constant([1., 2.]) 
  3. c = tf.reduce_sum(a + b) 

你認為 c 的值會是多少呢?如果你說是 6,那你就錯了。結果會是 12。這是因為當兩個張量的秩不匹配的時候,TensorFlow 就會自動地以較低的維度來擴展***維的大小,所以加法的結果會變成 [[2,3],[3,4]],所以在全體參數上的求和操作會給出 12 的結果。

避免這個問題的辦法就是盡可能地顯示化。如果我們顯示地指定了要將哪個維度進行求和,解決這個問題就會變得很容易了。

  1. a = tf.constant([[1.], [2.]]) 
  2. b = tf.constant([1., 2.]) 
  3. c = tf.reduce_sum(a + b, 0) 

現在 c 的值會是 [5,7],考慮到輸出結果的維度,我們會立即猜想是不是哪里出了錯。一般的經驗法則就是在求和操作以及使用 tf.squeeze() 的時候總要指定具體的維度。

原型內核與 Python 操作下的高度可視化

為了更高的效率,TensorFlow 的運算內核是用 C++編寫的。但是用 C++寫 TensorFlow 內核是一件痛苦的事情。所以,在你實現內核之前,你也許會想著快速地實現一個原型系統。借助于 tf.py_func() 函數,你可以將任何一段 Python 代碼轉化成 TensorFlow 操作。

例如,下面的例子展示了如何在 TensorFlow 中使用 Python 操作來實現一個簡單的 ReLU 非線性核。

  1. import numpy as np 
  2. import tensorflow as tf 
  3. import uuiddef relu(inputs):     
  4. # Define the op in python 
  5.     def _relu(x):         
  6.             return np.maximum(x, 0.)     
  7.            
  8.     # Define the op's gradient in python 
  9.     def _relu_grad(x):            return np.float32(x > 0)     
  10.  
  11.     # An adapter that defines a gradient op compatible with Tensorflow 
  12.     def _relu_grad_op(op, grad): 
  13.         x = op.inputs[0] 
  14.         x_grad = grad * tf.py_func(_relu_grad, [x], tf.float32)         
  15.     return x_grad     
  16.  
  17.      
  18.     # Register the gradient with a unique id 
  19.     grad_name = "MyReluGrad_" + str(uuid.uuid4()) 
  20.     tf.RegisterGradient(grad_name)(_relu_grad_op)     
  21.  
  22.  
  23.     # Override the gradient of the custom op 
  24.     g = tf.get_default_graph()     
  25.     with g.gradient_override_map({"PyFunc": grad_name}): 
  26.         output = tf.py_func(_relu, [inputs], tf.float32)    
  27.     return output 

你可以使用 TensorFlow 的梯度檢查器來驗證梯度是否正確:

  1. x = tf.random_normal([10]) 
  2. y = relu(x * x)with tf.Session(): 
  3.     diff = tf.test.compute_gradient_error(x, [10], y, [10])     
  4. print(diff) 

函數 compute_gradient_error() 會計算出梯度的數值,并且返回與給定梯度相比的差別。我所期望的是一個很小的差距。

需要注意的是,這個實現是相當低效的,并且僅對原型開發有用,因為 Python 代碼并不是能夠并行的,也無法在 GPU 上運行。一旦你驗證了自己的思想,你肯定會想著把它寫成一個 c++內核。

在實踐中,我們通常會在 Tensorboard 上使用 Python 操作來實現可視化。假設你在構建一個圖像分類的模型,并且想要在訓練的過程中可視化模型的預測結果。TensorFlow 允許使用 tf.summary.image() 函數來做可視化。

  1. image = tf.placeholder(tf.float32) 
  2. tf.summary.image("image", image) 

但是這僅僅會可視化輸入圖像。為了可視化預測結果,你必須尋求一種能夠做圖像注解的方式,這種方式幾乎在現有的操作中根本就不存在。一種比較容易的方法就是在 Python 中畫圖,然后用 Python 操作將其封裝起來。

  1. import io 
  2. import matplotlib.pyplot as plt 
  3. import numpy as npimport PIL 
  4. import tensorflow as tf 
  5.   def visualize_labeled_images(images, labels, max_outputs=3name='image'):     
  6.   def _visualize_image(image, label):    
  7.       
  8.         # Do the actual drawing in python 
  9.         fig = plt.figure(figsize=(3, 3), dpi=80
  10.         ax = fig.add_subplot(111) 
  11.         ax.imshow(image[::-1,...]) 
  12.         ax.text(0, 0, str(label),  
  13.           horizontalalignment='left',  
  14.           verticalalignment='top'
  15.         fig.canvas.draw()         
  16.  
  17.         # Write the plot as a memory file. 
  18.         buf = io.BytesIO() 
  19.         data = fig.savefig(buf, format='png'
  20.         buf.seek(0)    
  21.              # Read the image and convert to numpy array 
  22.         img = PIL.Image.open(buf)         
  23.         return np.array(img.getdata()).reshape(img.size[0], img.size[1], -1)     
  24.    def _visualize_images(images, labels):    
  25.               
  26.         # Only display the given number of examples in the batch 
  27.         outputs = []         
  28.         for i in range(max_outputs): 
  29.             output = _visualize_image(images[i], labels[i]) 
  30.             outputs.append(output)         
  31.         return np.array(outputs, dtype=np.uint8)     
  32.          
  33.    # Run the python op. 
  34.    figs = tf.py_func(_visualize_images, [images, labels], tf.uint8)     
  35.    return tf.summary.image(name, figs) 

要注意,因為這里的 summary 通常都會隔一段時間才評估一次(并不是每一步都有),所以這個方法是實用的,而不用擔心由此引發的效率問題。

原文:https://github.com/vahidk/EffectiveTensorflow

【本文是51CTO專欄機構“機器之心”的原創譯文,微信公眾號“機器之心( id: almosthuman2014)”】

 

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2021-04-09 10:42:03

數據可視化框架大數據

2020-03-11 14:39:26

數據可視化地圖可視化地理信息

2017-07-27 09:49:37

Python工具Matplotlib

2017-07-04 16:00:16

PythonMatplotlib可視化工具

2015-08-20 10:00:45

可視化

2014-12-31 16:48:43

Touch touchevent多點觸摸

2014-05-28 15:23:55

Rave

2009-08-31 13:32:12

2017-10-14 13:54:26

數據可視化數據信息可視化

2009-04-21 14:26:41

可視化監控IT管理摩卡

2022-08-26 09:15:58

Python可視化plotly

2023-03-27 23:42:29

樹狀圖開發可視化

2024-12-24 07:30:00

Seaborn可視化Python

2017-02-07 15:54:14

數據可視化數據分析

2024-12-24 12:00:00

Matplotlib可視化分析Python

2024-04-01 11:53:42

PlotlyPython數據可視化

2021-04-28 08:38:37

Jenkins Dashboard可視化部署

2017-02-16 09:30:04

數據可視化信息

2022-06-29 08:28:58

數據可視化數據可視化平臺

2023-07-20 08:00:00

可視化數據Python
點贊
收藏

51CTO技術棧公眾號

岛国精品在线播放| 精品日韩一区| 亚洲成年人网站在线观看| 国产偷国产偷亚洲高清97cao| 欧美videossex极品| 日韩精品久久| 亚洲国产欧美一区二区三区同亚洲 | 麻豆乱码国产一区二区三区| 中文字幕天堂av| 国产 日韩 欧美一区| 一区二区三区在线观看动漫| 蜜桃av久久久亚洲精品| 国产精品久久影视| 日韩专区一卡二卡| 91国自产精品中文字幕亚洲| 中文国语毛片高清视频| 国产精品中文字幕制服诱惑| 精品视频1区2区| 国产a级一级片| 在线免费观看a视频| 国产清纯白嫩初高生在线观看91| 91网免费观看| 亚洲综合免费视频| 男女精品网站| 97av在线影院| 精品亚洲永久免费| 艳女tv在线观看国产一区| 亚洲欧美中文另类| 免费黄色三级网站| 99久热这里只有精品视频免费观看| 欧美日韩一区二区在线观看 | 日韩欧美一级在线播放| 欧美久久久久久久久久久久久| 青娱乐国产精品视频| 亚洲少妇视频| 亚洲图片欧美综合| aaa免费在线观看| 成人午夜在线观看视频| 99久久国产综合精品麻豆| 91色p视频在线| 中文字幕在线播放不卡| 日韩国产成人精品| 日本高清+成人网在线观看| 国产一国产二国产三| 欧美一区不卡| 欧美成人激情图片网| 亚洲a∨无码无在线观看| 国产亚洲第一伦理第一区| 日韩av中文在线| 国产真实乱人偷精品| 成人自拍在线| 亚洲精品一区二区精华| 韩国三级在线看| 一区二区在线视频观看| 日韩一区二区精品| 亚洲少妇一区二区| 一区中文字幕| 亚洲精品乱码久久久久久按摩观| 亚洲av成人精品一区二区三区| 国产精品巨作av| 亚洲国产美女精品久久久久∴| 亚洲精品成人无码毛片| 91综合精品国产丝袜长腿久久| 精品欧美久久久| 中文字幕一区二区三区乱码不卡| 成人动漫视频| 在线亚洲一区观看| 国产精品视频网站| 波多野结衣av无码| 青娱乐精品在线视频| 热久久免费视频精品| 亚洲不卡视频在线观看| 久久久久国产一区二区| 国产精品久久久久久久久久久新郎| 波多野结衣小视频| 久久精品国产免费看久久精品| 国产在线视频91| 日本午夜精品视频在线观看 | 99热这里只有精品1| 久久99久久久欧美国产| 91网站免费看| 欧美自拍第一页| 亚洲女人天堂成人av在线| 欧美一二三视频| 国产精品一区二区三区四| 久久一区中文字幕| 91九色单男在线观看| www.天堂在线| 久久久青草青青国产亚洲免观| 欧美三日本三级少妇三99| 8888四色奇米在线观看| 最新成人av在线| 全黄性性激高免费视频| 羞羞影院欧美| 日韩一区二区三区在线| 噜噜噜在线视频| 日韩专区精品| 亚州精品天堂中文字幕| 中文字幕人妻丝袜乱一区三区| 国产精品99久久久久久似苏梦涵| 久久久久高清| 亚洲资源一区| 日韩欧美精品网站| 亚洲欧美激情一区二区三区| 亚洲激情播播| 欧美华人在线视频| 中文字幕在线观看高清| 成人精品视频一区二区三区尤物| 先锋影音欧美| 国产精品电影| 日韩欧美一区二区在线视频| 丰腴饱满的极品熟妇| 欧美aa国产视频| 国产热re99久久6国产精品| 色窝窝无码一区二区三区成人网站| 国产精品美女www爽爽爽| 亚洲成在线观看| 国产野外作爱视频播放| 国产精品超碰| 欧美日产国产成人免费图片| 男人的天堂av网站| 99国产精品久久久久久久久久| 日本一区二区三区四区五区六区| 一区二区视频免费完整版观看| 亚洲成av人乱码色午夜| 手机在线免费看片| 日本午夜精品视频在线观看| 久久国产精品99久久久久久丝袜| 高潮毛片在线观看| 欧美色图天堂网| 人妻少妇无码精品视频区| 韩日欧美一区| 成人黄动漫网站免费| 亚洲成人三级| 欧美日韩中文字幕一区| 欧美激情aaa| 久久亚洲不卡| 日本一区免费| 色婷婷综合久久久中字幕精品久久| 亚洲国产精品va在线看黑人动漫 | 亚洲理论电影片| 性欧美xxxx| 天天射天天色天天干| 亚洲国产精品久久人人爱| 国产吃瓜黑料一区二区| 91精品国产91久久久久久黑人| 成人激情视频在线| 国产在线观看av| 9191国产精品| 三级全黄做爰视频| 国产高清不卡一区二区| www婷婷av久久久影片| 91精品短视频| 国内外成人免费激情在线视频| 黄色www视频| 精品久久中文字幕久久av| 人妻丰满熟妇av无码久久洗澡| 免费在线亚洲欧美| 日韩成人av电影在线| 成人涩涩视频| 成人444kkkk在线观看| 国产成人精品一区二三区四区五区 | 久久99精品久久久久久久久久| 欧美三级网站| 国产亚洲欧美另类中文| 一级黄色免费片| 一区二区三区高清| 人妻无码一区二区三区| 天使萌一区二区三区免费观看| 少妇免费毛片久久久久久久久| 欧美成人一二区| 久久久久国产视频| 飘雪影院手机免费高清版在线观看| 色av综合在线| 999精品视频在线观看播放| 国产精品88888| 免费黄色福利视频| 欧美aaaaaaaaaaaa| 国产精品三区www17con| 欧美精品总汇| 欧美裸体男粗大视频在线观看| 蜜臀av在线观看| 在线精品视频一区二区三四| 紧身裙女教师波多野结衣| 成人国产一区二区三区精品| 黄色一级大片在线观看| 久久久久免费av| 精品人伦一区二区三区 | 成人精品一二区| 成人片免费看| 欧美激情综合色| av片在线看| 亚洲国产精品va在线观看黑人| 中文 欧美 日韩| 亚洲电影一区二区三区| 一级黄色录像毛片| 成人激情小说网站| 中文字幕永久有效| 亚洲深夜av| 国产 国语对白 露脸| 国产一区二区三区四区大秀| 99久久久精品免费观看国产| av在线日韩| 91精品国产电影| 欧美性video| 中文字幕亚洲欧美日韩高清 | 一区二区在线视频播放| 亚洲av无码乱码国产精品| 在线精品视频一区二区| 在线观看免费国产视频| 亚洲人成伊人成综合网小说| 女人又爽又黄免费女仆| 成人黄色一级视频| 手机av在线网站| 蜜桃视频在线观看一区| 国产黄视频在线| 亚洲视频一二| 色婷婷777777仙踪林| 日韩精品免费一区二区在线观看| 久久久久久国产精品免费免费| 欧美区一区二区| 成人午夜小视频| 男女啪啪999亚洲精品| 51精品国产黑色丝袜高跟鞋 | 日本成熟性欧美| 1区2区3区在线| 欧美激情日韩图片| 成人影院在线看| 日韩在线小视频| 成人午夜电影在线观看| 亚洲欧洲国产伦综合| 天天操天天舔天天干| 日韩免费在线观看| av中文字幕播放| 日韩一区二区精品在线观看| 97精品人妻一区二区三区香蕉| 色噜噜狠狠色综合中国| 秋霞精品一区二区三区| 色综合色狠狠综合色| 丰满人妻老熟妇伦人精品| 午夜激情一区二区| 黄网在线观看视频| 福利精品视频在线| 在线观看日韩中文字幕| 五月婷婷激情综合| 国偷自拍第113页| 欧美性xxxx极品hd满灌| 黄色片视频免费| 色婷婷综合久色| 中文字幕 日韩有码| 欧美色倩网站大全免费| 一级黄色片在线观看| 欧美美女bb生活片| 999av视频| 欧美tickling挠脚心丨vk| 亚洲成人黄色片| 日韩第一页在线| 国产在线电影| 精品国产视频在线| 欧美亚洲天堂| 青青精品视频播放| 成人黄色视屏网站| 亚洲xxx视频| 高清日韩中文字幕| 欧美一区二区三区四区夜夜大片| 成人动漫免费在线观看| 日韩视频在线观看视频| 欧美精品网站| 免费在线激情视频| 日韩成人精品在线观看| 欧洲美女亚洲激情| 成人av高清在线| 久久午夜福利电影| 亚洲男同性视频| 在线观看精品国产| 欧美视频一区二区三区四区 | 久久蜜桃av一区二区天堂 | 牛牛影视精品影视| www.色综合| √8天堂资源地址中文在线| 国产精品久久9| 91亚洲无吗| 色涩成人影视在线播放| 欧美淫片网站| 那种视频在线观看| 国产一区二区0| 久久久久亚洲av无码专区桃色| 中文字幕亚洲成人| 国偷自拍第113页| 欧美二区在线观看| 蜜芽tv福利在线视频| 欧美另类精品xxxx孕妇| 欧美aa免费在线| 91牛牛免费视频| 美女网站一区| 日韩 欧美 视频| 蜜臀久久99精品久久久久宅男 | 美女网站一区| 97久久国产亚洲精品超碰热| 日韩电影免费在线| 第四色在线视频| 亚洲丝袜自拍清纯另类| 日韩中文字幕在线观看视频| 日韩视频免费观看高清完整版| 久久经典视频| 91国产精品视频在线| 精品国产18久久久久久二百| 日韩亚洲视频在线| 午夜在线视频观看日韩17c| 波多野结衣网页| 中文字幕高清不卡| 麻豆成人免费视频| 亚洲风情亚aⅴ在线发布| 精品欧美色视频网站在线观看| 日本中文字幕成人| 极品束缚调教一区二区网站| 免费看啪啪网站| 日本欧美大码aⅴ在线播放| 香港三级日本三级| 亚洲香蕉伊在人在线观| 国产伦子伦对白视频| 中文字幕在线国产精品| 偷拍精品精品一区二区三区| 精品欧美国产| 亚洲欧洲视频| 中国黄色片视频| 亚洲成人777| 乱精品一区字幕二区| 久久999免费视频| a一区二区三区亚洲| 亚洲在线观看一区| 麻豆精品视频在线观看免费| 熟女少妇一区二区三区| 欧美性高潮床叫视频| 天堂v视频永久在线播放| 97超碰国产精品女人人人爽| 精品国产乱子伦一区二区| 国产亚洲黄色片| 国产69精品一区二区亚洲孕妇| 亚洲欧美一区二区三区四区五区| 欧美精品 国产精品| 蜜桃视频网站在线| 成人午夜一级二级三级| 久久久久午夜电影| 精品人妻人人做人人爽夜夜爽| 一区二区三区在线视频免费 | 亚洲欧美另类自拍| 日韩不卡免费高清视频| 青青草原亚洲| 麻豆91精品视频| 国产福利视频网站| 日韩欧美精品在线视频| 污视频网站在线免费| 成人在线观看av| 亚洲少妇诱惑| 亚洲一区二区自偷自拍| 欧美三区免费完整视频在线观看| av网站在线免费观看| 亚洲精品免费av| 亚洲国产裸拍裸体视频在线观看乱了中文| 久久久高清视频| 欧美日韩免费在线| 成人免费高清在线播放| 成人国产精品一区二区| 国产综合视频| wwwwww日本| 91麻豆精品国产91久久久使用方法 | 九色91popny| 亚洲女子a中天字幕| 欧美在线精品一区二区三区| 欧美最猛性xxxxx(亚洲精品)| 国产毛片一区二区三区| 91 视频免费观看| 亚洲电影第三页| 国产精品秘入口| 亚洲精品欧美极品| 亚洲综合不卡| 午夜三级在线观看| 亚洲二区在线播放视频| 福利一区二区| 国产美女主播在线播放| 日本一区二区三区免费乱视频| 99精品久久久久久中文字幕| 4438全国亚洲精品在线观看视频| 成人羞羞在线观看网站| 性生交大片免费看l| 欧美综合亚洲图片综合区| av中文字幕在线播放| 久久综合中文色婷婷| 精品亚洲欧美一区| 国产成人在线播放视频| 色噜噜亚洲精品中文字幕| 久久影视三级福利片| 日本三级黄色网址| 精品人伦一区二区三区蜜桃网站 | 性欧美videossex精品| 亚洲午夜久久久久久久久电影院| 95在线视频| 欧美精品与人动性物交免费看| 国内成+人亚洲+欧美+综合在线|