精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

從MySQL到Hive,數據遷移就這么簡單

譯文
大數據
從存儲基礎設施的一個位置移動數據到另一個位置是個艱難的過程。至少,過去是這樣。而現在,在合適的工具和基礎設施條件下,傳統的數據遷移過程中涉及到的許多困難點都可以消除。使用Sqoop能夠極大簡化MySQL數據遷移至Hive之流程,并降低Hadoop處理分析任務時的難度。

使用Sqoop能夠極大簡化MySQL數據遷移至Hive之流程,并降低Hadoop處理分析任務時的難度。

 

[[166114]]

先決條件:安裝并運行有Sqoop與Hive的Hadoop環境。為了加快處理速度,我們還將使用Cloudera Quickstart VM(要求至少4 GB內存),不過大家也可以使用Hortonworks Data Platform(至少要求8 GB內存)。由于我的筆記本電腦只有8 GB內存,因此我在這里使用CLoudera VM鏡像。

如果大家需要使用Virtualbox運行Cloudera/HDP VM,則可以輕松使用其它多種Hadoop生態系統預裝軟件包(包括MySQL、Oozie、Hadoop、Hive、Zookeeper、Storm、Kafka以及Spark等等)。

在MySQL中創建表

在Cloudera VM中,打開命令界面并確保MySQL已經安裝完畢。

  1. shell> mysql --version 
  2. mysql  Ver 14.14 Distrib 5.1.66, for redhat-linux-gnu (x86_64) using readline 5. 

示例當中自然要使用自己的數據庫,因此使用以下命令在MySQL中創建一套數據庫:

  1. mysql> create database sqoop; 

接下來:

  1. mysql> use sqoop; 
  2. mysql> create table customer(id varchar(3), name varchar(20), age varchar(3), salary integer(10)); 
  3. Query OK, 0 rows affected (0.09 sec) 
  4. mysql> desc customer; 
  5. +--------+-------------+------+-----+---------+-------+ 
  6. | Field  | Type        | Null | Key | Default | Extra | 
  7. +--------+-------------+------+-----+---------+-------+ 
  8. | id     | varchar(3)  | YES  |     | NULL    |       | 
  9. | name   | varchar(20) | YES  |     | NULL    |       | 
  10. | age    | varchar(3)  | YES  |     | NULL    |       | 
  11. | salary | int(10)     | YES  |     | NULL    |       | 
  12. +--------+-------------+------+-----+---------+-------+
  1. mysql> select * from customer; 
  2. +------+--------+------+--------+ 
  3. | id   | name   | age  | salary | 
  4. +------+--------+------+--------+ 
  5. | 1    | John   | 30   |  80000 | 
  6. | 2    | Kevin  | 33   |  84000 | 
  7. | 3    | Mark   | 28   |  90000 | 
  8. | 4    | Jenna  | 34   |  93000 | 
  9. | 5    | Robert | 32   | 100000 | 
  10. | 6    | Zoya   | 40   |  60000 | 
  11. | 7    | Sam    | 37   |  75000 | 
  12. | 8    | George | 31   |  67000 | 
  13. | 9    | Peter  | 23   |  70000 | 
  14. | 19   | Alex   | 26   |  74000 | 
  15. +------+--------+------+----- 

開始Sqoop之旅

如大家所見,其中customer表中并不包含主鍵。我在該表中并未添加多少記錄。默認情況下,Sqoop能夠識別出表中的主鍵列(如果有的話),并將其作為劃分列。該劃分列的低值與高值檢索自該數據庫,而映射任務則指向符合區間要求的均勻部分。

如果主鍵并未均勻分布在該區間當中,那么任務將出現不平衡狀況。這時,大家應當明確選定一個與--split-by參數不同的列,例如--split-by id。

由于我們希望將此表直接導入至Hive中,因此需要在Sqoop命令中添加–hive-import:

  1. sqoop import --connect jdbc:mysql://localhost:3306/sqoop  
  2. --username root  
  3. -P  
  4. --split-by id  
  5. --columns id,name  
  6. --table customer   
  7. --target-dir /user/cloudera/ingest/raw/customers  
  8. --fields-terminated-by ","  
  9. --hive-import  
  10. --create-hive-table  
  11. --hive-table sqoop_workspace.customers 

下面來看Sqoop命令各選項的具體作用:

connect – 提供jdbc字符串

username – 數據庫用戶名

-P – 將在控制臺中詢問密碼。大家也可以使用-passwaord,但并不推薦這種作法,因為其會顯示在任務執行日志中并可能導致問題。解決辦法之一在于將數據庫密碼存儲在HDFS中的文件內,并將其向運行時交付。

  • table – 告知計算機我們希望導入哪個MySQL表。在這里,表名稱為customer。
  • split-by – 指定劃分列。在這里我們指定id列。
  • target-dir – HDFS目標目錄。
  • fields-terminated-by – 我已經指定了逗號作為分隔值(默認情況下,導入HDFS的數據以逗號作為分隔值)。
  • hive-import – 將表導入Hive(如果不加設置,則使用Hive的默認分隔符)。
  • create-hive-table – 檢查如果已經存在一個Hive表,任務設置是否會因此失敗。
  • hive-table – 指定.。本示例中為sqoop_workspace.customers,其中sqoop_workspace為數據庫名稱,而customers則為表名稱。

如下所示,Sqoop為一項map-reduce任務。請注意,這里我使用-P作為密碼選項。除了這種方式,我們也可以使用-password實現參數化,并從文件中讀取密碼內容。

  1. sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username root -P --split-by id --columns id,name --table customer  --target-dir /user/cloudera/ingest/raw/customers --fields-terminated-by "," --hive-import --create-hive-table --hive-table sqoop_workspace.customers 
  2. Warning: /usr/lib/sqoop/../accumulo does not exist! Accumulo imports will fail. 
  3. Please set $ACCUMULO_HOME to the root of your Accumulo installation. 
  4. 16/03/01 12:59:44 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6-cdh5.5.0 
  5. Enter password: 
  6. 16/03/01 12:59:54 INFO manager.MySQLManager: Preparing to use a MySQL streaming resultset. 
  7. 16/03/01 12:59:54 INFO tool.CodeGenTool: Beginning code generation 
  8. 16/03/01 12:59:55 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `customer` AS t LIMIT 1 
  9. 16/03/01 12:59:56 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `customer` AS t LIMIT 1 
  10. 16/03/01 12:59:56 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /usr/lib/hadoop-mapreduce 
  11. Note: /tmp/sqoop-cloudera/compile/6471c43b5c867834458d3bf5a67eade2/customer.java uses or overrides a deprecated API. 
  12. Note: Recompile with -Xlint:deprecation for details. 
  13. 16/03/01 13:00:01 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-cloudera/compile/6471c43b5c867834458d3bf5a67eade2/customer.jar 
  14. 16/03/01 13:00:01 WARN manager.MySQLManager: It looks like you are importing from mysql. 
  15. 16/03/01 13:00:01 WARN manager.MySQLManager: This transfer can be faster! Use the --direct 
  16. 16/03/01 13:00:01 WARN manager.MySQLManager: option to exercise a MySQL-specific fast path. 
  17. 16/03/01 13:00:01 INFO manager.MySQLManager: Setting zero DATETIME behavior to convertToNull (mysql) 
  18. 16/03/01 13:00:01 INFO mapreduce.ImportJobBase: Beginning import of customer 
  19. 16/03/01 13:00:01 INFO Configuration.deprecation: mapred.job.tracker is deprecated. Instead, use mapreduce.jobtracker.address 
  20. 16/03/01 13:00:02 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar 
  21. 16/03/01 13:00:04 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps 
  22. 16/03/01 13:00:05 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032 
  23. 16/03/01 13:00:11 INFO db.DBInputFormat: Using read commited transaction isolation 
  24. 16/03/01 13:00:11 INFO db.DataDrivenDBInputFormat: BoundingValsQuery: SELECT MIN(`id`), MAX(`id`) FROM `customer` 
  25. 16/03/01 13:00:11 WARN db.TextSplitter: Generating splits for a textual index column. 
  26. 16/03/01 13:00:11 WARN db.TextSplitter: If your database sorts in a case-insensitive order, this may result in a partial import or duplicate records. 
  27. 16/03/01 13:00:11 WARN db.TextSplitter: You are strongly encouraged to choose an integral split column. 
  28. 16/03/01 13:00:11 INFO mapreduce.JobSubmitter: number of splits:4 
  29. 16/03/01 13:00:12 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1456782715090_0004 
  30. 16/03/01 13:00:13 INFO impl.YarnClientImpl: Submitted application application_1456782715090_0004 
  31. 16/03/01 13:00:13 INFO mapreduce.Job: The url to track the job: http://quickstart.cloudera:8088/proxy/application_1456782715090_0004/ 
  32. 16/03/01 13:00:13 INFO mapreduce.Job: Running job: job_1456782715090_0004 
  33. 16/03/01 13:00:47 INFO mapreduce.Job: Job job_1456782715090_0004 running in uber mode : false 
  34. 16/03/01 13:00:48 INFO mapreduce.Job:  map 0% reduce 0% 
  35. 16/03/01 13:01:43 INFO mapreduce.Job:  map 25% reduce 0% 
  36. 16/03/01 13:01:46 INFO mapreduce.Job:  map 50% reduce 0% 
  37. 16/03/01 13:01:48 INFO mapreduce.Job:  map 100% reduce 0% 
  38. 16/03/01 13:01:48 INFO mapreduce.Job: Job job_1456782715090_0004 completed successfully 
  39. 16/03/01 13:01:48 INFO mapreduce.Job: Counters: 30 
  40.     File System Counters 
  41.         FILE: Number of bytes read=0 
  42.         FILE: Number of bytes written=548096 
  43.         FILE: Number of read operations=0 
  44.         FILE: Number of large read operations=0 
  45.         FILE: Number of write operations=0 
  46.         HDFS: Number of bytes read=409 
  47.         HDFS: Number of bytes written=77 
  48.         HDFS: Number of read operations=16 
  49.         HDFS: Number of large read operations=0 
  50.         HDFS: Number of write operations=8 
  51.     Job Counters  
  52.         Launched map tasks=4 
  53.         Other local map tasks=5 
  54.         Total time spent by all maps in occupied slots (ms)=216810 
  55.         Total time spent by all reduces in occupied slots (ms)=0 
  56.         Total time spent by all map tasks (ms)=216810 
  57.         Total vcore-seconds taken by all map tasks=216810 
  58.         Total megabyte-seconds taken by all map tasks=222013440 
  59.     Map-Reduce Framework 
  60.         Map input records=10 
  61.         Map output records=10 
  62.         Input split bytes=409 
  63.         Spilled Records=0 
  64.         Failed Shuffles=0 
  65.         Merged Map outputs=0 
  66.         GC time elapsed (ms)=2400 
  67.         CPU time spent (ms)=5200 
  68.         Physical memory (bytes) snapshot=418557952 
  69.         Virtual memory (bytes) snapshot=6027804672 
  70.         Total committed heap usage (bytes)=243007488 
  71.     File Input Format Counters  
  72.         Bytes Read=0 
  73.     File Output Format Counters  
  74.         Bytes Written=77 
  75. 16/03/01 13:01:48 INFO mapreduce.ImportJobBase: Transferred 77 bytes in 104.1093 seconds (0.7396 bytes/sec) 
  76. 16/03/01 13:01:48 INFO mapreduce.ImportJobBase: Retrieved 10 records. 
  77. 16/03/01 13:01:49 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `customer` AS t LIMIT 1 
  78. 16/03/01 13:01:49 INFO hive.HiveImport: Loading uploaded data into Hive 
  79. Logging initialized using configuration in jar:file:/usr/jars/hive-common-1.1.0-cdh5.5.0.jar!/hive-log4j.properties 
  80. OK 
  81. Time taken: 2.163 seconds 
  82. Loading data to table sqoop_workspace.customers 
  83. chgrp: changing ownership of 'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers/part-m-00000': User does not belong to supergroup 
  84. chgrp: changing ownership of 'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers/part-m-00001': User does not belong to supergroup 
  85. chgrp: changing ownership of 'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers/part-m-00002': User does not belong to supergroup 
  86. chgrp: changing ownership of 'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers/part-m-00003': User does not belong to supergroup 
  87. Table sqoop_workspace.customers stats: [numFiles=4, totalSize=77] 
  88. OK 
  89. Time taken: 1.399 seconds 

***,讓我們驗證Hive中的輸出結果:

  1. hive> show databases; 
  2. OK 
  3. default 
  4. sqoop_workspace 
  5. Time taken: 0.034 seconds, Fetched: 2 row(s) 
  6. hive> use sqoop_workspace; 
  7. OK 
  8. Time taken: 0.063 seconds 
  9. hive> show tables; 
  10. OK 
  11. customers 
  12. Time taken: 0.036 seconds, Fetched: 1 row(s) 
  13. hive> show create table customers; 
  14. OK 
  15. CREATE TABLE `customers`( 
  16.   `id` string,  
  17.   `name` string) 
  18. COMMENT 'Imported by sqoop on 2016/03/01 13:01:49' 
  19. ROW FORMAT DELIMITED  
  20.   FIELDS TERMINATED BY ','  
  21.   LINES TERMINATED BY '\n'  
  22. STORED AS INPUTFORMAT  
  23.   'org.apache.hadoop.mapred.TextInputFormat'  
  24. OUTPUTFORMAT  
  25.   'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat' 
  26. LOCATION 
  27.   'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers' 
  28. TBLPROPERTIES ( 
  29.   'COLUMN_STATS_ACCURATE'='true',  
  30.   'numFiles'='4',  
  31.   'totalSize'='77',  
  32.   'transient_lastDdlTime'='1456866115'
  33. Time taken: 0.26 seconds, Fetched: 18 row(s) 

hive> select * from customers;

OK

1 John

2 Kevin

19 Alex

3 Mark

4 Jenna

5 Robert

6 Zoya

7 Sam

8 George

9 Peter

Time taken: 1.123 seconds, Fetched: 10 row(s).

到此完成!從MySQL到Hive,數據遷移工作就是這么簡單。

責任編輯:Ophira 來源: 51CTO.com
相關推薦

2015-06-30 12:53:40

秒殺應用MySQL數據庫優化

2025-02-12 08:21:55

OllamaChatboxDeepSeek

2021-11-19 11:16:29

Git命令Linux

2020-11-27 10:34:01

HTTPHTTPS模型

2014-04-02 10:20:20

銳捷網絡云課堂

2010-04-22 14:38:24

培訓

2015-05-07 10:10:06

云應用開發開發者云平臺

2015-12-15 16:54:00

戴爾云計算

2014-12-16 10:55:06

硅谷

2017-07-13 13:13:49

AndroidAPK反編譯

2012-11-14 16:57:37

手機刷機

2019-04-23 10:06:16

微軟Windows 10系統更新

2022-02-10 14:24:28

LinuxWindows文件

2014-03-29 22:42:00

微信公眾平臺開發C#

2015-08-27 09:00:41

產品用戶體驗設計設計

2016-03-03 11:36:09

浪潮

2019-12-17 16:04:25

微軟

2022-10-21 08:17:13

MongoDB查詢Document

2015-01-05 09:35:54

云計算應用程序開發

2015-07-06 14:59:49

技術周刊
點贊
收藏

51CTO技術棧公眾號

日本在线中文字幕一区二区三区| 亚洲精品免费在线观看视频| 欧美精品一二| 欧美久久久一区| 大陆av在线播放| 国产69精品久久app免费版| 精品在线播放午夜| 91精品国产一区| 自拍偷拍第9页| 久久av国产紧身裤| 欧美熟乱第一页| 91丨porny丨探花| 色的视频在线免费看| proumb性欧美在线观看| 国产主播精品在线| 毛片在线免费视频| 欧美一区视频| 在线视频一区二区| 国产精品久久不卡| 日韩高清一区| 欧美三级电影在线观看| 波多野结衣之无限发射| caopon在线免费视频| 国产视频911| 久久超碰亚洲| www.天堂av.com| 九九热在线视频观看这里只有精品| 97在线免费观看视频| 一区二区在线观看免费视频| 日本不卡电影| 亚洲丝袜一区在线| 久久久久久有精品国产| 人妻体体内射精一区二区| 日本一区二区电影| 色综合久久久久综合体| 精品无码一区二区三区爱欲| 成人高清免费在线| 国产精品初高中害羞小美女文| 美女被啪啪一区二区| 亚洲男人天堂久久| 国产精品一级片在线观看| 成人激情电影一区二区| 中文字幕+乱码+中文字幕明步| 香蕉久久国产| 青青草精品毛片| 天天做天天爱夜夜爽| 亚洲视频www| 欧美怡春院一区二区三区| 日本一区二区不卡在线| 伊人久久大香线蕉av超碰演员| 欧美激情女人20p| 久久午夜鲁丝片午夜精品| 午夜精品视频| 久久久久久国产精品美女| 久久久久久国产精品免费播放| 自拍偷拍欧美专区| 欧美另类精品xxxx孕妇| 九九久久免费视频| 日韩视频一区| 国产精品99久久久久久久久| 亚洲中文一区二区| 久久国产精品72免费观看| 成人免费午夜电影| www.麻豆av| 99视频在线精品| 欧美日韩国产综合视频在线| 精品久久久久一区二区三区 | 日韩美女在线播放| 日韩在线 中文字幕| 秋霞电影网一区二区| 国产精品自产拍在线观| 国产女人高潮时对白| 国产成人精品影视| 久久精品成人一区二区三区蜜臀| 欧美色视频免费| 欧美性video| 国产婷婷色一区二区三区四区| 亚洲精品国产精品国自产观看| 香港伦理在线| 亚洲一区二区三区四区在线免费观看 | 亚洲视频 中文字幕| 麻豆精品av| 国产丝袜一区二区三区免费视频| 成人激情五月天| 一区二区电影在线观看| 午夜精品理论片| 国产乡下妇女三片| 国产高清视频一区| 欧美精品人人做人人爱视频| 免费av在线网址| 精品国产福利在线| 亚洲天堂伊人网| 久久porn| 久久久国产91| av图片在线观看| 韩国三级在线一区| 欧美另类一区| 青青草视频在线免费直播| 日本精品一区二区三区高清 | 在线免费观看av的网站| 51精品国产| 中文字幕日韩av电影| 国产精久久久久久| 理论片日本一区| 久精品国产欧美| 成人免费在线| 欧美色偷偷大香| 亚洲综合自拍网| 一区二区三区四区在线观看国产日韩 | 黄色网zhan| 超碰国产一区| 亚洲成人av在线| 日本黄色免费片| 黄视频网站在线| 视频一区二区三区中文字幕| 91免费欧美精品| 久久国产精品高清一区二区三区| 亚洲午夜视频在线| 欧美大片久久久| 欧美日韩性在线观看| 9.1国产丝袜在线观看| av在线亚洲天堂| 亚洲欧洲日产国码二区| 能看的毛片网站| 欧美重口另类| 韩国三级日本三级少妇99| 国产婷婷在线视频| 中文字幕日本不卡| 91av视频免费观看| 成人中文视频| 国产精品久久二区| 国产中文字幕在线看| 欧美性极品少妇精品网站| 99免费观看视频| 欧美体内she精视频在线观看| 成人a在线视频| 日本高清在线观看wwwww色| 91福利在线免费观看| 大黑人交xxx极品hd| 国产亚洲毛片| 久久综合九色99| 色在线免费观看| 日韩国产一区三区| 黑人精品无码一区二区三区AV| 91欧美一区二区| 鲁一鲁一鲁一鲁一澡| 亚洲黄页网站| 人体精品一二三区| 久草在现在线| 欧美午夜精品免费| 丰满的亚洲女人毛茸茸| 日韩国产一区二| 西游记1978| 青青国产精品| 欧美wwwxxxx| 亚洲精华国产精华精华液网站| 亚洲自拍偷拍综合| 在线免费观看污视频| 久久久水蜜桃av免费网站| 欧美日韩在线观看一区| 日本另类视频| 欧美成人精品一区二区| 亚洲黄色小说网址| 欧美日韩一区二区三区| 蜜臀久久99精品久久久久久| 免费在线视频一区| 青草全福视在线| 精品嫩草影院| 国产成人激情视频| 色影视在线观看| 精品免费日韩av| 成人免费视频毛片| 中文字幕在线一区| 亚洲成a人无码| 久久精品人人| 亚洲午夜精品久久久中文影院av| 成人乱码手机视频| 午夜精品久久久久久久久久久久久| 色就是色亚洲色图| 777亚洲妇女| 日韩精品在线免费看| 国产亚洲欧美在线| 天天影视色综合| 在线亚洲精品| 久久av秘一区二区三区| 欧美自拍视频| 91免费高清视频| xxxxx性欧美特大| 啊v视频在线一区二区三区 | 国产精品亚洲专一区二区三区| 国产精品成人久久电影| 欧美色就是色| 好看的日韩精品| 日韩大陆av| 欧美性视频在线| 国产在线观看a视频| 精品视频一区在线视频| 国产又粗又黄又爽视频| 岛国精品视频在线播放| 91香蕉视频在线播放| 久久综合丝袜日本网| 免费不卡av网站| 日本系列欧美系列| 国产精品自拍片| 欧美fxxxxxx另类| 影音先锋欧美在线| 亚洲伊人春色| 九九九热999| 日韩视频在线直播| 国产精品自产拍在线观| 国产高清不卡| 午夜精品久久久99热福利| 国产黄色在线网站| 在线不卡国产精品| 男人天堂网在线观看| 亚洲福利视频免费观看| av中文字幕第一页| 欧美丰满高潮xxxx喷水动漫| 超碰在线免费97| 色综合色狠狠综合色| 在线免费观看毛片| 一区二区日韩电影| 天天天天天天天天操| 中文字幕av一区二区三区免费看 | 欧美人与拘性视交免费看| 成人3d动漫一区二区三区91| 亚洲欧洲日韩精品在线| 国产精品人成电影在线观看| 韩国三级一区| 日本精品一区二区三区在线播放视频 | 4p变态网欧美系列| sm久久捆绑调教精品一区| 欧美国产日韩免费| 2020国产在线视频| 久久国产精品影片| caopo在线| 欧美大学生性色视频| av超碰免费在线| 超碰精品一区二区三区乱码| 日韩毛片久久久| 久久久国产一区| av网站免费在线观看| 美女精品视频一区| 日本孕妇大胆孕交无码| 欧美高清视频在线播放| 久久青青色综合| 性欧美激情精品| 欧美aaaaa性bbbbb小妇| 琪琪亚洲精品午夜在线| 日韩三区免费| 国产精品一区二区三区在线播放| julia一区二区三区中文字幕| 国产成人精品网站| 国产激情久久| 91精品视频观看| 香蕉大人久久国产成人av| 高清不卡日本v二区在线| 国产精品色呦| 欧美精品v日韩精品v国产精品| 国产精品羞羞答答在线观看| 日韩一区二区电影在线观看| 久久国产成人精品| 欧美日韩一级在线| 99精品99| 九色91popny| 国产精品综合网| 中文字幕免费在线播放| 久久九九久久九九| frxxee中国xxx麻豆hd| 亚洲一区二区精品视频| 探花视频在线观看| 欧美三级电影网| 亚洲成a人片在线| 亚洲人成网在线播放| 免费黄色网址在线观看| 久久久欧美精品| 电影一区电影二区| 粉嫩精品一区二区三区在线观看| 网曝91综合精品门事件在线| 亚洲精品在线视频观看| 欧美先锋影音| 色一情一乱一伦一区二区三区日本| 激情小说亚洲一区| 久久人人妻人人人人妻性色av| 日本一区二区三区在线观看| 欧美精品videos极品| 色综合中文综合网| 国产成人三级在线播放| 亚洲精品在线视频| 99在线视频观看| 日韩免费黄色av| 色妞ww精品视频7777| 天天久久人人| 国产日韩欧美| 久久精品无码一区二区三区毛片| 久久综合丝袜日本网| 四虎免费在线视频| 欧美亚洲动漫另类| 深爱五月激情五月| 久久九九有精品国产23| 日日夜夜天天综合| 国产精品xxxx| 91精品国产调教在线观看| 欧美日韩国产精品激情在线播放| 国产一区高清在线| 日本一级免费视频| 婷婷中文字幕一区三区| 国产精品一区二区av白丝下载 | 美女www一区二区| 三级黄色片网站| 亚洲一区二区三区免费视频| 91资源在线视频| 在线观看日韩www视频免费| 大菠萝精品导航| 成人精品水蜜桃| 性欧美欧美巨大69| 久久婷婷综合色| 久久久亚洲高清| 激情五月色婷婷| 精品久久五月天| av片在线观看免费| 成人欧美一区二区三区在线湿哒哒| 久久99久久人婷婷精品综合| 蜜桃传媒一区二区三区| 国产成人高清在线| 青娱乐在线视频免费观看| 6080国产精品一区二区| 久蕉在线视频| 国产精彩精品视频| 九九热精品视频在线观看| 黄www在线观看| 99久久er热在这里只有精品15 | 四虎国产成人精品免费一女五男| 岛国视频午夜一区免费在线观看| 欧美性受xxxx狂喷水| 色综合视频网站| 99国产精品久久一区二区三区| 亚洲黄色av女优在线观看 | 久久国产精品免费一区| 亚洲成色精品| 五月天激情小说| 精品久久久久久电影| 飘雪影视在线观看免费观看 | caoporn超碰97| 国产区在线观看成人精品| 国产精品第6页| 最新69国产成人精品视频免费| 巨胸喷奶水www久久久 | 99精品国产福利在线观看免费 | 色综合咪咪久久网| www.精品在线| 亚洲欧美另类小说视频| 精品人妻一区二区三区蜜桃 | 日韩人妻精品一区二区三区| 国内精品国产成人| 久久精品视频免费在线观看| 欧美v亚洲v综合ⅴ国产v| caoprom在线| 女女同性女同一区二区三区91| 久热综合在线亚洲精品| 日本欧美一区二区三区不卡视频| 欧美日韩一区不卡| av网站在线免费看推荐| 精选一区二区三区四区五区| 久久综合婷婷| 夫妻性生活毛片| 亚洲的天堂在线中文字幕| 伊伊综合在线| 亚洲一区二区在线看| 国产一区二区不卡| 国产做受高潮漫动| 国产亚洲欧美日韩美女| 日本亚州欧洲精品不卡| 国产一区二区网| 国产精品久久久久一区二区三区共| av天堂一区二区三区| 8x拔播拔播x8国产精品| 97精品国产福利一区二区三区| 中文字幕第六页| 91成人网在线| 四季久久免费一区二区三区四区| 久久riav| 国产精品亚洲成人| 中文字幕xxxx| 欧美大片在线看| 日韩av专区| 粉嫩av懂色av蜜臀av分享| 欧美色爱综合网| 白浆视频在线观看| 一区二区三区欧美成人| 91在线视频播放| 国产视频aaa| 日本三级久久久| 黄色工厂这里只有精品| 久久精品色妇熟妇丰满人妻| 亚洲第一精品福利| 伊人久久大香伊蕉在人线观看热v| 国产精品网站免费| 亚洲靠逼com| 在线免费看a|