精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

【深度學習系列】PaddlePaddle之數據預處理

人工智能 開發工具
上篇文章講了卷積神經網絡的基本知識,本來這篇文章準備繼續深入講CNN的相關知識和手寫CNN,但是有很多同學跟我發郵件或私信問我關于PaddlePaddle如何讀取數據、做數據預處理相關的內容。

上篇文章講了卷積神經網絡的基本知識,本來這篇文章準備繼續深入講CNN的相關知識和手寫CNN,但是有很多同學跟我發郵件或私信問我關于PaddlePaddle如何讀取數據、做數據預處理相關的內容。網上看的很多教程都是幾個常見的例子,數據集不需要自己準備,所以不需要關心,但是實際做項目的時候做數據預處理感覺一頭霧水,所以我就寫一篇文章匯總一下,講講如何用PaddlePaddle做數據預處理。


 

PaddlePaddle的基本數據格式

  根據官網的資料,總結出PaddlePaddle支持多種不同的數據格式,包括四種數據類型和三種序列格式:

四種數據類型:

  • dense_vector:稠密的浮點數向量。
  • sparse_binary_vector:稀疏的二值向量,即大部分值為0,但有值的地方必須為1。
  • sparse_float_vector:稀疏的向量,即大部分值為0,但有值的部分可以是任何浮點數。
  • integer:整型格式

api如下:

  • paddle.v2.data_type.dense_vector(dimseq_type=0)
    • 說明:稠密向量,輸入特征是一個稠密的浮點向量。舉個例子,手寫數字識別里的輸入圖片是28*28的像素,Paddle的神經網絡的輸入應該是一個784維的稠密向量。
    • 參數:
      • dim(int) 向量維度
      • seq_type(int)輸入的序列格式
    • 返回類型:InputType
  • paddle.v2.data_type.sparse_binary_vector(dimseq_type=0)
    • 說明:稀疏的二值向量。輸入特征是一個稀疏向量,這個向量的每個元素要么是0,要么是1
    • 參數:同上
    • 返回類型:同上
  • paddle.v2.data_type.sparse_vector(dimseq_type=0)
    • 說明:稀疏向量,向量里大多數元素是0,其他的值可以是任意的浮點值
    • 參數:同上
    • 返回類型:同上
  • paddle.v2.data_type.integer_value(value_rangeseq_type=0)
    • 說明:整型格式
    • 參數:
      • seq_type(int):輸入的序列格式
      • value_range(int):每個元素的范圍
    • 返回類型:InputType

三種序列格式:

  • SequenceType.NO_SEQUENCE:不是一條序列
  • SequenceType.SEQUENCE:是一條時間序列
  • SequenceType.SUB_SEQUENCE: 是一條時間序列,且序列的每一個元素還是一個時間序列。

api如下:

  • paddle.v2.data_type.dense_vector_sequence(dimseq_type=0)
    • 說明:稠密向量的序列格式
    • 參數:dim(int):稠密向量的維度
    • 返回類型:InputType
  • paddle.v2.data_type.sparse_binary_vector_sequence(dimseq_type=0)
    • 說明:稀疏的二值向量序列。每個序列里的元素要么是0要么是1
    • 參數:dim(int):稀疏向量的維度
    • 返回類型:InputType
  • paddle.v2.data_type.sparse_non_value_slot(dimseq_type=0)
    • 說明:稀疏的向量序列。每個序列里的元素要么是0要么是1
    • 參數:
      • dim(int):稀疏向量的維度
      • seq_type(int):輸入的序列格式
    • 返回類型:InputType
  • paddle.v2.data_type.sparse_value_slot(dimseq_type=0)
    • 說明:稀疏的向量序列,向量里大多數元素是0,其他的值可以是任意的浮點值
    • 參數:
      • dim(int):稀疏向量的維度
        • seq_type(int):輸入的序列格式
    • 返回類型:InputType
  • paddle.v2.data_type.integer_value_sequence(value_rangeseq_type=0)
    • 說明:value_range(int):每個元素的范圍

  不同的數據類型和序列模式返回的格式不同,如下表:

  其中f表示浮點數,i表示整數

 

注意:對sparse_binary_vector和sparse_float_vector,PaddlePaddle存的是有值位置的索引。例如,

  • 對一個5維非序列的稀疏01向量 [0, 1, 1, 0, 0] ,類型是sparse_binary_vector,返回的是 [1, 2] 。(因為只有第1位和第2位有值)
  • 對一個5維非序列的稀疏浮點向量 [0, 0.5, 0.7, 0, 0] ,類型是sparse_float_vector,返回的是 [(1, 0.5), (2, 0.7)] 。(因為只有第一位和第二位有值,分別是0.5和0.7)

 

PaddlePaddle的數據讀取方式

  我們了解了上文的四種基本數據格式和三種序列模式后,在處理自己的數據時可以根據需求選擇,但是處理完數據后如何把數據放到模型里去訓練呢?我們知道,基本的方法一般有兩種:

  • 一次性加載到內存:模型訓練時直接從內存中取數據,不需要大量的IO消耗,速度快,適合少量數據。
  • 加載到磁盤/HDFS/共享存儲等:這樣不用占用內存空間,在處理大量數據時一般采取這種方式,但是缺點是每次數據加載進來也是一次IO的開銷,非常影響速度。

 

  在PaddlePaddle中我們可以有三種模式來讀取數據:分別是reader、reader creator和reader decorator,這三者有什么區別呢?

  • reader:從本地、網絡、分布式文件系統HDFS等讀取數據,也可隨機生成數據,并返回一個或多個數據項。

  • reader creator:一個返回reader的函數。

  • reader decorator:裝飾器,可組合一個或多個reader。

 

  reader

  我們先以reader為例,為房價數據(斯坦福吳恩達的公開課第一課舉例的數據)創建一個reader:

  1. 創建一個reader,實質上是一個迭代器,每次返回一條數據(此處以房價數據為例)
reader = paddle.dataset.uci_housing.train()

  2. 創建一個shuffle_reader,把上一步的reader放進去,配置buf_size就可以讀取buf_size大小的數據自動做shuffle,讓數據打亂,隨機化

shuffle_reader = paddle.reader.shuffle(reader,buf_size= 100)

  3.創建一個batch_reader,把上一步混洗好的shuffle_reader放進去,給定batch_size,即可創建。

batch_reader = paddle.batch(shuffle_reader,batch_size = 2)

 

  這三種方式也可以組合起來放一塊:

reader = paddle.batch(
    paddle.reader.shuffle(
        uci_housing.train(),
    buf_size = 100),
    batch_size=2)    

   可以以一個直觀的圖來表示:

 

  從圖中可以看到,我們可以直接從原始數據集里拿去數據,用reader讀取,一條條灌倒shuffle_reader里,在本地隨機化,把數據打亂,做shuffle,然后把shuffle后的數據,一個batch一個batch的形式,批量的放到訓練器里去進行每一步的迭代和訓練。 流程簡單,而且只需要使用一行代碼即可實現整個過程。 

 

  reader creator

  如果想要生成一個簡單的隨機數據,以reader creator為例:

def reader_creator():
    def reader():
        while True:
            yield numpy.random.uniform(-1,1,size=784)
    return reader

   源碼見creator.py, 支持四種格式:np_array,text_file,RecordIO和cloud_reader

[[223797]] View Code

 

reader decorator

  如果想要讀取同時讀取兩部分的數據,那么可以定義兩個reader,合并后對其進行shuffle。如我想讀取所有用戶對比車系的數據和瀏覽車系的數據,可以定義兩個reader,分別為contrast()和view(),然后通過預定義的reader decorator緩存并組合這些數據,在對合并后的數據進行亂序操作。源碼見decorator.py

data = paddle.reader.shuffle(
        paddle.reader.compose(
            paddle.reader(contradt(contrast_path),buf_size = 100),
            paddle.reader(view(view_path),buf_size = 200),
            500)

 

  這樣有一個很大的好處,就是組合特征來訓練變得更容易了!傳統的跑模型的方法是,確定label和feature,盡可能多的找合適的feature扔到模型里去訓練,這樣我們就需要做一張大表,訓練完后我們可以分析某些特征的重要性然后重新增加或減少一些feature來進行訓練,這樣我們有需要對原來的label-feature表進行修改,如果數據量小沒啥影響,就是麻煩點,但是數據量大的話需要每一次增加feature,和主鍵、label來join的操作都會很耗時,如果采取這種方式的話,我們可以對某些同一類的特征做成一張表,數據存放的地址存為一個變量名,每次跑模型的時候想選取幾類特征,就創建幾個reader,用reader decorator 組合起來,最后再shuffle灌倒模型里去訓練。這!樣!是!不!是!很!方!便!

  如果沒理解,我舉一個實例,假設我們要預測用戶是否會買車,label是買車 or 不買車,feature有瀏覽車系、對比車系、關注車系的功能偏好等等20個,傳統的思維是做成這樣一張表:

 

  如果想要減少feature_2,看看feature_2對模型的準確率影響是否很大,那么我們需要在這張表里去掉這一列,想要增加一個feature的話,也需要在feature里增加一列,如果用reador decorator的話,我們可以這樣做數據集:

 

  把相同類型的feature放在一起,不用頻繁的join減少時間,一共做四個表,創建4個reador:

 
data = paddle.reader.shuffle(
            paddle.reader.compose(
                paddle.reader(table1(table1_path),buf_size = 100),
                paddle.reader(table2(table2_path),buf_size = 100),
                paddle.reader(table3(table3_path),buf_size = 100),
                paddle.reader(table4(table4_path),buf_size = 100),
            500)                    
 

  如果新發現了一個特征,想嘗試這個特征對模型提高準確率有沒有用,可以再單獨把這個特征數據提取出來,再增加一個reader,用reader decorator組合起來,shuffle后放入模型里跑就行了。

 


 

PaddlePaddle的數據預處理實例

  還是以手寫數字為例,對數據進行處理后并劃分train和test,只需要4步即可:

1. 指定數據地址

 
 1 import paddle.v2.dataset.common
 2 import subprocess
 3 import numpy
 4 import platform
 5 __all__ = ['train', 'test', 'convert']
 6 
 7 URL_PREFIX = 'http://yann.lecun.com/exdb/mnist/'
 8 TEST_IMAGE_URL = URL_PREFIX + 't10k-images-idx3-ubyte.gz'
 9 TEST_IMAGE_MD5 = '9fb629c4189551a2d022fa330f9573f3'
10 TEST_LABEL_URL = URL_PREFIX + 't10k-labels-idx1-ubyte.gz'
11 TEST_LABEL_MD5 = 'ec29112dd5afa0611ce80d1b7f02629c'
12 TRAIN_IMAGE_URL = URL_PREFIX + 'train-images-idx3-ubyte.gz'
13 TRAIN_IMAGE_MD5 = 'f68b3c2dcbeaaa9fbdd348bbdeb94873'
14 TRAIN_LABEL_URL = URL_PREFIX + 'train-labels-idx1-ubyte.gz'
15 TRAIN_LABEL_MD5 = 'd53e105ee54ea40749a09fcbcd1e9432'
 

2. 創建reader creator

 
 1 def reader_creator(image_filename, label_filename, buffer_size):
 2     # 創建一個reader
 3     def reader():
 4         if platform.system() == 'Darwin':
 5             zcat_cmd = 'gzcat'
 6         elif platform.system() == 'Linux':
 7             zcat_cmd = 'zcat'
 8         else:
 9             raise NotImplementedError()
10 
11         m = subprocess.Popen([zcat_cmd, image_filename], stdout=subprocess.PIPE)
12         m.stdout.read(16)  
13 
14         l = subprocess.Popen([zcat_cmd, label_filename], stdout=subprocess.PIPE)
15         l.stdout.read(8)  
16 
17         try:  # reader could be break.
18             while True:
19                 labels = numpy.fromfile(
20                     l.stdout, 'ubyte', count=buffer_size).astype("int")
21 
22                 if labels.size != buffer_size:
23                     break  # numpy.fromfile returns empty slice after EOF.
24 
25                 images = numpy.fromfile(
26                     m.stdout, 'ubyte', count=buffer_size * 28 * 28).reshape(
27                         (buffer_size, 28 * 28)).astype('float32')
28 
29                 images = images / 255.0 * 2.0 - 1.0
30 
31                 for i in xrange(buffer_size):
32                     yield images[i, :], int(labels[i])
33         finally:
34             m.terminate()
35             l.terminate()
36 
37     return reader
 

3. 創建訓練集和測試集

 
 1 def train():
 2     """
 3     創建mnsit的訓練集 reader creator
 4     返回一個reador creator,每個reader里的樣本都是圖片的像素值,在區間[0,1]內,label為0~9
 5     返回:training reader creator
 6     """
 7     return reader_creator(
 8         paddle.v2.dataset.common.download(TRAIN_IMAGE_URL, 'mnist',
 9                                           TRAIN_IMAGE_MD5),
10         paddle.v2.dataset.common.download(TRAIN_LABEL_URL, 'mnist',
11                                           TRAIN_LABEL_MD5), 100)
12 
13 
14 def test():
15     """
16     創建mnsit的測試集 reader creator
17     返回一個reador creator,每個reader里的樣本都是圖片的像素值,在區間[0,1]內,label為0~9
18     返回:testreader creator
19     """
20     return reader_creator(
21         paddle.v2.dataset.common.download(TEST_IMAGE_URL, 'mnist',
22                                           TEST_IMAGE_MD5),
23         paddle.v2.dataset.common.download(TEST_LABEL_URL, 'mnist',
24                                           TEST_LABEL_MD5), 100)
 

4. 下載數據并轉換成相應格式

 
 1 def fetch():
 2     paddle.v2.dataset.common.download(TRAIN_IMAGE_URL, 'mnist', TRAIN_IMAGE_MD5)
 3     paddle.v2.dataset.common.download(TRAIN_LABEL_URL, 'mnist', TRAIN_LABEL_MD5)
 4     paddle.v2.dataset.common.download(TEST_IMAGE_URL, 'mnist', TEST_IMAGE_MD5)
 5     paddle.v2.dataset.common.download(TEST_LABEL_URL, 'mnist', TRAIN_LABEL_MD5)
 6 
 7 
 8 def convert(path):
 9     """
10     將數據格式轉換為 recordio format
11     """
12     paddle.v2.dataset.common.convert(path, train(), 1000, "minist_train")
13     paddle.v2.dataset.common.convert(path, test(), 1000, "minist_test")
 

  如果想換成自己的訓練數據,只需要按照步驟改成自己的數據地址,創建相應的reader creator(或者reader decorator)即可。

 

  這是圖像的例子,如果我們想訓練一個文本模型,做一個情感分析,這個時候如何處理數據呢?步驟也很簡單。

  假設我們有一堆數據,每一行為一條樣本,以 \t 分隔,第一列是類別標簽,第二列是輸入文本的內容,文本內容中的詞語以空格分隔。以下是兩條示例數據:

positive        今天終于試了自己理想的車 外觀太騷氣了 而且中控也很棒
negative       這臺車好貴 而且還費油 性價比太低了

  現在開始做數據預處理

1. 創建reader

 
 1 def train_reader(data_dir, word_dict, label_dict):
 2     def reader():
 3         UNK_ID = word_dict["<UNK>"]
 4         word_col = 0
 5         lbl_col = 1
 6 
 7         for file_name in os.listdir(data_dir):
 8             with open(os.path.join(data_dir, file_name), "r") as f:
 9                 for line in f:
10                     line_split = line.strip().split("\t")
11                     word_ids = [
12                         word_dict.get(w, UNK_ID)
13                         for w in line_split[word_col].split()
14                     ]
15                     yield word_ids, label_dict[line_split[lbl_col]]
16 
17     return reader
 

  返回類型為: paddle.data_type.integer_value_sequence(詞語在字典的序號)和 paddle.data_type.integer_value(類別標簽)

2. 組合讀取方式

1 train_reader = paddle.batch(
2         paddle.reader.shuffle(
3             reader.train_reader(train_data_dir, word_dict, lbl_dict),
4             buf_size=1000),
5         batch_size=batch_size)

 

  完整的代碼如下(加上了劃分train和test部分):

 
 1 import os
 2 
 3 
 4 def train_reader(data_dir, word_dict, label_dict):
 5     """
 6    創建訓練數據reader
 7     :param data_dir: 數據地址.
 8     :type data_dir: str
 9     :param word_dict: 詞典地址,
10         詞典里必須有 "UNK" .
11     :type word_dict:python dict
12     :param label_dict: label 字典的地址
13     :type label_dict: Python dict
14     """
15 
16     def reader():
17         UNK_ID = word_dict["<UNK>"]
18         word_col = 1
19         lbl_col = 0
20 
21         for file_name in os.listdir(data_dir):
22             with open(os.path.join(data_dir, file_name), "r") as f:
23                 for line in f:
24                     line_split = line.strip().split("\t")
25                     word_ids = [
26                         word_dict.get(w, UNK_ID)
27                         for w in line_split[word_col].split()
28                     ]
29                     yield word_ids, label_dict[line_split[lbl_col]]
30 
31     return reader
32 
33 
34 def test_reader(data_dir, word_dict):
35     """
36     創建測試數據reader
37     :param data_dir: 數據地址.
38     :type data_dir: str
39     :param word_dict: 詞典地址,
40         詞典里必須有 "UNK" .
41     :type word_dict:python dict
42     """
43 
44     def reader():
45         UNK_ID = word_dict["<UNK>"]
46         word_col = 1
47 
48         for file_name in os.listdir(data_dir):
49             with open(os.path.join(data_dir, file_name), "r") as f:
50                 for line in f:
51                     line_split = line.strip().split("\t")
52                     if len(line_split) < word_col: continue
53                     word_ids = [
54                         word_dict.get(w, UNK_ID)
55                         for w in line_split[word_col].split()
56                     ]
57                     yield word_ids, line_split[word_col]
58 
59     return reader

 


 

 總結 

  這篇文章主要講了在paddlepaddle里如何加載自己的數據集,轉換成相應的格式,并劃分train和test。我們在使用一個框架的時候通常會先去跑幾個簡單的demo,但是如果不用常見的demo的數據,自己做一個實際的項目,完整的跑通一個模型,這才代表我們掌握了這個框架的基本應用知識。跑一個模型第一步就是數據預處理,在paddlepaddle里,提供的方式非常簡單,但是有很多優點:

  •   shuffle數據非常方便
  •   可以將數據組合成batch訓練
  •   可以利用reader decorator來組合多個reader,提高組合特征運行模型的效率
  •   可以多線程讀取數據

  而我之前使用過mxnet來訓練車牌識別的模型,50w的圖片數據想要一次訓練是非常慢的,這樣的話就有兩個解決方法:一是批量訓練,這一點大多數的框架都會有, 二是轉換成mxnet特有的rec格式,提高讀取效率,可以通過im2rec.py將圖片轉換,比較麻煩,如果是tesnorflow,也有相對應的特定格式tfrecord,這幾種方式各有優劣,從易用性上,paddlepaddle是比較簡單的。

  這篇文章沒有與上篇銜接起來,因為看到有好幾封郵件都有問怎么自己加載數據訓練,所以就決定插入一節先把這個寫了。下篇文章我們接著講CNN的進階知識。下周見^_^!

 

參考文章:

1.官網說明:

http://doc.paddlepaddle.org/develop/doc_cn/getstarted/concepts/use_concepts_cn.html

責任編輯:張燕妮 來源: www.cnblogs.com
相關推薦

2018-03-26 20:07:25

深度學習

2018-04-02 10:45:11

深度學習PaddlePaddl手寫數字識別

2018-03-26 20:14:32

深度學習

2018-04-09 10:20:32

深度學習

2021-11-03 09:00:00

深度學習自然語言機器學習

2025-03-07 08:00:00

數據數據集集神經網絡數據預處理

2018-03-26 20:00:32

深度學習

2018-04-16 11:30:32

深度學習

2018-04-17 09:40:22

深度學習

2018-04-11 09:30:41

深度學習

2011-08-04 10:38:17

Objective-C 預處理程序

2018-02-07 16:13:00

深度學習

2018-03-09 22:56:52

PaddlePaddl

2024-01-31 08:09:53

預處理器代碼C++

2018-03-26 19:56:13

深度學習

2018-03-26 21:31:30

深度學習

2018-03-26 21:26:50

深度學習

2017-05-02 08:40:36

機器學習預處理整理

2017-04-29 10:16:14

機器學習數據清洗數據整理

2017-02-09 16:39:54

百度
點贊
收藏

51CTO技術棧公眾號

中文不卡在线| huan性巨大欧美| 亚洲在线观看| 一区在线免费观看| 97精品国产| 欧美一区二区视频观看视频| 亚洲国产一二三精品无码 | 国产又大又黄视频| 九九视频免费观看视频精品| 欧美美女网站色| av在线com| 第九色区av在线| 国产成人精品亚洲日本在线桃色| 欧美又大粗又爽又黄大片视频| 少妇精品无码一区二区免费视频| 无码aⅴ精品一区二区三区| 欧美**字幕| 欧美一区二区三区视频在线| 成熟了的熟妇毛茸茸| 丁香在线视频| 国产在线视频一区二区三区| 亚洲人免费视频| 337p粉嫩大胆噜噜噜鲁| 超碰国产在线观看| 国产成人精品aa毛片| 91av网站在线播放| 欧美xxxx精品| 亚洲理论电影| 欧美人成免费网站| 毛片一区二区三区四区| 黄色成人在线| 国产色产综合产在线视频 | 亚洲精华一区二区三区| 日韩一级二级三级精品视频| 久久人人爽av| 成人h在线观看| 欧美视频在线免费| 亚洲精品久久久久久久蜜桃臀| 秋霞a级毛片在线看| 日韩国产精品大片| 这里只有视频精品| 亚洲色图欧美日韩| 蜜桃精品视频| 亚洲一区二区三区四区在线| 亚洲视频在线观看日本a| 日本ー区在线视频| 国产精品亚洲一区二区三区妖精 | 国产日韩欧美另类| 少妇一级淫片免费放中国| 亚洲精品a级片| 日韩一级裸体免费视频| 一级免费黄色录像| 国产一区二区精品久| 日韩精品极品在线观看| 国产精品成人99一区无码 | 免费看成人av| 日本视频免费观看| 国产欧美日韩一区二区三区在线| 欧美国产乱视频| 精品人妻在线播放| 最新日韩av| 欧美亚洲成人网| 中文字幕高清在线免费播放| 久久一区欧美| 国产精品香蕉在线观看| 一区二区日韩视频| 国产一区二区福利视频| 国产成人女人毛片视频在线| 狠狠人妻久久久久久综合麻豆| 成人精品小蝌蚪| 精品国产乱码久久久久| 免费看男男www网站入口在线| 久久免费电影网| 日韩免费av一区二区三区| 成人高清免费在线播放| 中文字幕在线视频一区| 国产精品视频一二三四区| 青春草视频在线观看| 亚洲国产精品久久人人爱| 日本中文字幕网址| 五月婷婷激情视频| 亚洲毛片在线免费| 一本一道综合狠狠老| 成人免费看片视频| 国产一区二区在线播放视频| 国产精品一区二区三区四区| 97在线观看免费| 国产一区二区视频免费| 黑人精品欧美一区二区蜜桃| 不卡视频一区二区三区| 亚洲国产欧美另类| 韩国毛片一区二区三区| 国产精品电影在线观看| 国产日韩欧美中文字幕| 99在线精品免费| 亚洲高清在线播放| 久久99亚洲网美利坚合众国| 在线免费观看一区| 伊人av在线播放| 伊人久久大香线蕉| 欧美床上激情在线观看| 国产又黄又猛又粗又爽| 国产精品一级黄| 日本电影一区二区三区| 色视频在线观看免费| 中文字幕第一区综合| 免费的一级黄色片| 91精品国产经典在线观看| 精品美女在线播放| 久久撸在线视频| 182在线播放| 欧美怡红院视频| 丰满熟女人妻一区二区三区| 日韩欧美一区二区三区免费看| 久久久久久这里只有精品| 中国一级片黄色一级片黄| 日韩av在线播放网址| 午夜精品视频在线| 国产老女人乱淫免费| 亚欧成人精品| 超碰国产精品久久国产精品99| 国产女人在线视频| 香蕉加勒比综合久久| 午夜免费福利网站| 日本在线电影一区二区三区| 91高清视频免费| 亚洲精品97久久中文字幕无码| 中文幕一区二区三区久久蜜桃| 人人妻人人添人人爽欧美一区| 麻豆精品国产| 久久久www成人免费精品| 久久久久久久久久97| 男人天堂欧美日韩| 国产精品久久久久久久久久久久久久| 免费av一级片| 亚洲综合成人在线视频| 亚洲精品中文字幕乱码无线| 成人影视亚洲图片在线| 日韩美女激情视频| 免费黄网站在线观看| 欧美日韩色婷婷| 亚洲一级av无码毛片精品| 国产精品国码视频| 99久久国产免费免费| 黄色一级大片在线免费看产| 欧美日韩国产免费| 波多野结衣欲乱| 蜜臀a∨国产成人精品| 日韩av大全| 精品123区| 中文字幕精品久久久久| 亚洲精品一区二三区| 久久久精品影视| 动漫av免费观看| 成人免费在线观看av| 国产精品视频区1| 日韩av中文| 刘亦菲久久免费一区二区| 亚洲成人最新网站| 成人黄色短视频在线观看| 95在线视频| 欧美精品自拍偷拍| 国产精品白丝喷水在线观看| 国产一区视频在线看| 国产在线无码精品| 精品无码人妻一区| 亚洲性感美女99在线| 国产精品18毛片一区二区| 操人在线观看| 亚洲欧美日韩中文在线| 91在线视频免费播放| 国产精品视频麻豆| 日韩wuma| 亚洲一区二区三区久久久| 久久天堂av综合合色| 国产专区第一页| 国产日韩欧美不卡| 九九精品久久久| 午夜久久一区| 久久精品国产理论片免费| 很黄的网站在线观看| 日韩欧美一级精品久久| 日本一区二区欧美| 国产精品一级二级三级| 99在线精品免费视频| 久久99青青| 91久久嫩草影院一区二区| 六十路在线观看| 欧美色电影在线| 久久国产在线视频| 久久久99精品免费观看不卡| 中文字幕精品一区二区三区在线| 一区免费在线| 亚洲不卡1区| 给我免费播放日韩视频| 国产脚交av在线一区二区| 成人高清免费在线| 日韩精品在线免费播放| 久久久久亚洲av片无码下载蜜桃 | aaaaa黄色片| 久久久久国产精品一区二区| 人妻无码一区二区三区四区| 久久99久久人婷婷精品综合 | 国产最新精品| 国产aⅴ精品一区二区三区黄| 亚洲伦理影院| 欧美精品18videos性欧美| avtt亚洲| 亚洲色图av在线| 亚洲精品97久久中文字幕无码| 欧美视频一区二区三区在线观看| 久草视频免费在线播放| 国产精品卡一卡二卡三| 蜜臀av一区二区三区有限公司| 久久成人精品无人区| 日韩精品一区二区三区色欲av| 国产精品99久久免费观看| 国产精品美女久久| 中文字幕人成乱码在线观看 | 亚洲黄色网址| 久久免费福利视频| av在线免费播放| www国产精品视频| 国产高清一区在线观看| 亚洲福利在线观看| xxxwww在线观看| 91精品国产综合久久小美女| 亚洲天堂五月天| 欧美午夜精品在线| 超碰中文字幕在线| 亚洲一区二区三区美女| 国产大学生自拍| 国产精品国产三级国产aⅴ入口| 白白色免费视频| 久久亚洲一区二区三区明星换脸 | 91精品国产电影| 欧美videossex另类| 在线播放亚洲激情| 香蕉视频免费看| 欧美精品一区二区三| 亚洲av永久无码国产精品久久| 久热爱精品视频线路一| 欧美大成色www永久网站婷| 天堂中文在线资源| 精品国产乱码久久| www.国产黄色| 日韩欧美国产精品| 精品免费久久久| 日韩欧美国产一区在线观看| 国产天堂视频在线观看| 日韩在线二区| 中文字幕综合在线观看| 国产高清一区| 日本三日本三级少妇三级66| 久久精品久久久| 中国一级大黄大黄大色毛片| 欧美激情91| av网站手机在线观看| 亚洲精选久久| av观看免费在线| 日本系列欧美系列| 色噜噜狠狠永久免费| 韩国三级中文字幕hd久久精品| 九九热视频免费| 成人手机在线视频| 午夜久久久久久久| 伊人久久大香线蕉av超碰演员| 天天做天天躁天天躁| 亚洲午夜视频| 男人天堂1024| 青青草97国产精品免费观看无弹窗版| 精品综合久久久久| 国产不卡视频在线播放| 波多野结衣福利| 国产精品久久久久7777按摩| 日本福利片在线观看| 亚洲h精品动漫在线观看| 波多野结衣毛片| 日韩视频在线一区二区| 亚洲av激情无码专区在线播放| 国产亚洲欧美日韩美女| 天堂在线资源8| 亚洲性生活视频| 成人国产免费电影| 欧洲s码亚洲m码精品一区| 欧美日韩五区| 不卡一区二区三区四区五区| 香蕉久久夜色精品国产更新时间| 亚洲最大福利视频网站| 日韩中文av| 艳母动漫在线免费观看| 中日韩视频在线观看| 日本 片 成人 在线| 成人自拍视频在线| 日本一卡二卡在线播放| 午夜视频在线观看一区| 中文字幕在线观看欧美| 日韩精品资源二区在线| 二区在线视频| 国产69精品久久久久9999| 久久爱.com| 蜜桃麻豆91| 欧美涩涩网站| 亚洲 欧美 另类人妖| 成a人片亚洲日本久久| 精品国产大片大片大片| 狠狠色狠色综合曰曰| 国产精品系列视频| 在线观看91久久久久久| eeuss鲁一区二区三区| 国产综合视频在线观看| 免费视频亚洲| 亚洲熟妇无码一区二区三区导航| 美女视频免费一区| 欧美特黄一区二区三区| 亚洲国产wwwccc36天堂| 国产精品国产精品国产专区| 亚洲全黄一级网站| 老司机深夜福利在线观看| 97人摸人人澡人人人超一碰| 色呦哟—国产精品| 99视频在线免费| 91丝袜高跟美女视频| 欧美日韩中文视频| 欧美日韩亚洲视频| www香蕉视频| 欧美精品在线免费| 成人永久在线| 一区在线电影| 美国欧美日韩国产在线播放| 久久成人激情视频| 色综合久久久久网| 外国精品视频在线观看| 亚洲女人被黑人巨大进入al| 免费污视频在线观看| 99国产视频| 综合国产在线| 在线观看免费看片| 亚洲美女偷拍久久| 久久99久久99精品| 久久精品理论片| 色婷婷国产精品免| 欧美在线999| 成人免费一区二区三区视频网站| 日韩av免费看网站| 国产精品欧美在线观看| 成人在线观看a| 国产三级欧美三级日产三级99| 天堂网视频在线| 亚洲天堂久久av| 成人在线视频免费| 欧美一级免费在线观看| 国产麻豆欧美日韩一区| 青青草手机视频在线观看| 日韩免费福利电影在线观看| 欧美v亚洲v| 老司机精品福利在线观看| 欧美亚洲专区| 中文字幕有码在线播放| 欧美日韩国产成人在线免费| 好操啊在线观看免费视频| 成人免费观看网站| aa级大片欧美三级| 一区二区三区免费在线观看视频| 亚洲精品二区三区| jizz18女人| 亚洲日本在线天堂| 亚欧视频在线观看| 日韩av有码在线| 国产精品高清乱码在线观看| 一区二区在线观| 国产成a人无v码亚洲福利| 日本特黄特色aaa大片免费| 国产视频在线一区二区| 深夜视频一区二区| 国产手机视频在线观看| 成人黄色在线看| 午夜精品一区二| 久久夜色精品国产欧美乱| 久久夜色电影| 天天爱天天操天天干| 亚洲蜜臀av乱码久久精品蜜桃| 手机在线不卡av| 国产精品免费视频久久久| 欧美精品激情| 韩国三级hd中文字幕| 日韩一级免费一区| 成人免费福利| 一本久道高清无码视频| 国产亚洲美州欧州综合国| 精品国产乱码久久久久久蜜臀网站| 97精品欧美一区二区三区| 99视频精品全国免费| 欧美在线一级片| 欧美二区在线观看| 中文字幕在线官网| 日本三日本三级少妇三级66| 26uuu久久综合| 精品人妻无码一区二区| 日韩美女福利视频|