精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hadoop 數據遷移用法詳解

大數據 Hadoop
需要將數據源集群的/etc/hosts中的hadoop節點拷貝到目標集群所有節點的/etc/hosts中,保證新集群所有節點可以ping同老集群所有節點;

[[404804]]

目錄

  • 一般用法
  • hive數據遷移
  • Export/Import方式
  • 同步元數據
  • 總結

數據遷移使用場景

  • 冷熱集群數據分類存儲,詳見上述描述.
  • 集群數據整體搬遷.當公司的業務迅速的發展,導致當前的服務器數量資源出現臨時緊張的時候,為了更高效的利用資源,會將原A機房數據整體遷移到B機房的,原因可能是B機房機器多,而且B機房本身開銷較A機房成本低些等.
  • 數據的準實時同步.數據的準實時同步與上一點的不同在于第二點可以一次性操作解決,而準實時同步需要定期同步,而且要做到周期內數據基本完全一致.數據準實時同步的目的在于數據的雙備份可用,比如某天A集群突然宣告不允許再使用了,此時可以將線上使用集群直接切向B的同步集群,因為B集群實時同步A集群數據,擁有完全一致的真實數據和元數據信息,所以對于業務方使用而言是不會受到任何影響的.

hadoop 集群間拷貝數據:

需要將數據源集群的/etc/hosts中的hadoop節點拷貝到目標集群所有節點的/etc/hosts中,保證新集群所有節點可以ping同老集群所有節點;

  1. hadoop distcp hdfs://qcloud-hadoop02:9000/hive/warehouse/hm2.db/helper/dt=2018-10-17 /data 

說明:我們這里是apache hadoop 到cdh數據遷移,這個命令仍然是可以用的。

一般用法

1、遷移之前需要把兩個集群的所有節點都互通/etc/hosts文件(重要,包括各個數據節點)

2、配置當前集群主節點到老集群各個節點的ssh免密登陸(可選)

3、由于老集群是HDP2.7.1,新集群是cdh5.8.5,版本不同,不能用hdfs協議直接拷貝,需要用http協議 即不能用:distcp hdfs://src:50070/foo /user而要用:distcp hftp://src:50070/foo /user最終的命令為:

  1. hadoop distcp hftp://192.168.57.73:50070/hive3/20171008 /hive3/ 

4、如果兩個集群的版本相同,則可以使用hdfs協議,命令如下:

  1. hadoop distcp hdfs://namenodeip:9000/foo hdfs://namenodeip:9000/foo 

5、由于遷移數據運行了mr任務,對集群資源有一定的消耗

DistCp優勢特性

1 帶寬限流

DistCp是支持帶寬限流的,使用者可以通過命令參數bandwidth來為程序進行限流,原理類似于HDFS中數據Balance程序的限流.

2 增量數據同步

對于增量數據同步的需求,在DistCp中也得到了很好的實現.通過update,append和diff2個參數能很好的解決.官方的參數使用說明:

  • Update: Update target, copying only missing files or directories
  • Append: Reuse existing data in target files and append new data to them if possible.
  • Diff: Use snapshot diff report to identify the difference between source and target.

第一個參數,解決了新增文件目錄的同步;第二參數,解決已存在文件的增量更新同步;第三個參數解決刪除或重命名文件的同步.

這里需要額外解釋一下diff的使用需要設置2個不同時間的snapshot進行對比,產生相應的DiffInfo.在獲取快照文件的變化時,只會選擇出DELETE和RENAME這2種類型的變化信息.

相同hadoop版本同步數據

  1. hadoop distcp -skipcrccheck -update -m 20 hdfs://dchadoop002.dx:8020/user/dc/warehouse/test /user/dc/warehouse/test 

不同hadoop版本同步數據

  1. hadoop distcp -skipcrccheck -update -m 20 hftp://ns1/user/test /user/dc/test 

參數:

  1. -m 表示并發數 
  2.  
  3. -skipcrccheck 跳過hdfs校驗 
  4.  
  5. -update 更新文件 

理源路徑的方式與默認值不同,有些細節需要注意。這里給出一些 -update和 -overwrite的例子。考慮從/source/first/ 和 /source/second/ 到 /target/的拷貝,源路徑包括:

  1. hdfs://nn1:8020/source/first/1 
  2. hdfs://nn1:8020/source/first/2 
  3. hdfs://nn1:8020/source/second/10 
  4. hdfs://nn1:8020/source/second/20 

當不使用-update或-overwrite選項時,DistCp默認會在/target下創建/first和/second目錄。因此將在/target之前先創建目錄。

從而:

  1. hadoop distcp hdfs://nn1:8020/source/first hdfs://nn1:8020/source/second hdfs://nn2:8020/target 

上述命令將在/target中生成以下內容:

  1. hdfs://nn2:8020/target/first/1 
  2. hdfs://nn2:8020/target/first/2 
  3. hdfs://nn2:8020/target/second/10 
  4. hdfs://nn2:8020/target/second/20 

當指定-update或-overwrite時,源目錄的內容將復制到目標,而不是源目錄本身。

從而:

  1. distcp -update hdfs://nn1:8020/source/first hdfs://nn1:8020/source/second hdfs://nn2:8020/target 

上述命令將在/ target中生成以下內容:

  1. hdfs://nn2:8020/target/1 
  2. hdfs://nn2:8020/target/2 
  3. hdfs://nn2:8020/target/10 
  4. hdfs://nn2:8020/target/20 

如果設置了這兩個選項,每個源目錄的內容都會和目標目錄的內容做比較。如果兩個源文件夾都包含一個具有相同名稱的文件(例如“0”),那么這兩個源文件將在目的地映射到同一個目錄:/target/0。DistCp碰到這類沖突的情況會終止操作并退出。現在,請考慮以下復制操作:

  1. distcp hdfs://nn1:8020/source/first hdfs://nn1:8020/source/second hdfs://nn2:8020/target 

其中源路徑/大小:

  1. hdfs://nn1:8020/source/first/1 32 
  2.  
  3. hdfs://nn1:8020/source/first/2 32 
  4.  
  5. hdfs://nn1:8020/source/second/10 64 
  6.  
  7. hdfs://nn1:8020/source/second/20 32 

和目的路徑/大小:

  1. hdfs://nn2:8020/target/1 32 
  2. hdfs://nn2:8020/target/10 32 
  3. hdfs://nn2:8020/target/20 64 

會產生:

  1. hdfs://nn2:8020/target/1 32 
  2. hdfs://nn2:8020/target/2 32 
  3. hdfs://nn2:8020/target/10 64 
  4. hdfs://nn2:8020/target/20 32 

文件“1”因為文件長度和內容匹配而被跳過。文件“2”被復制,因為它不存在/target中。因為目標文件內容與源文件內容不匹配,文件“10”和文件“20”被覆蓋。如果使用-update 選項,文件“1”也被覆蓋。

3 高效的性能

執行的分布式特性

高效的MR組件

hive數據遷移

1.hive數據export到hdfs

  1. export table hm2.helper to '/tmp/export/hm2/helper'

如下:

  1. hive> export table hm2.helper to '/tmp/export/hm2/helper'
  2. Copying data from file:/app/data/hive/tmp/scratchdir/ce4c15d9-6875-40ed-add4-deedd75a4a92/hive_2018-10-26_10-58-21_552_8465737459112285307-1/-local-10000/_metadata 
  3. Copying file: file:/app/data/hive/tmp/scratchdir/ce4c15d9-6875-40ed-add4-deedd75a4a92/hive_2018-10-26_10-58-21_552_8465737459112285307-1/-local-10000/_metadata 
  4. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=13/msgtype=helper 
  5. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper 
  6. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00001 
  7. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00003 
  8. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00004 
  9. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00005 
  10. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00006 
  11. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00007 
  12. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00008 
  13. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00009 
  14. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00010 
  15. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00011 
  16. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00012 
  17. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00013 
  18. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00014 
  19. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00015 
  20. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=13/msgtype=helper 
  21. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=13/msgtype=helper/part-m-00002 
  22. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper 
  23. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00000 
  24. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00002 
  25. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00006 
  26. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00016 
  27. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-22/hour=08/msgtype=helper 
  28. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-22/hour=08/msgtype=helper/part-m-00006 
  29. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-22/hour=09/msgtype=helper 
  30. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-22/hour=09/msgtype=helper/part-m-00000 
  31. OK 
  32. Time taken: 1.52 seconds 

2.集群間數據復制

需要保證原始集群目錄有讀權限,新的集群復制保存目錄有寫權限:

  1. 兩個集群都要賦權 
  2. hdfs dfs -chmod -R 777 /tmp/export/* 
  3. hdfs dfs -chmod -R 777 /tmp/export/* 

數據復制

  1. hadoop distcp hdfs://qcloud-test-hadoop01:9000/tmp/export/hm2 /tmp/export 

3.數據導入hive

在源hive show create table tbName顯示建表語句,用語句在目標hive建表,然后倒入數據:

  1. import table hm2.helper from '/tmp/export/hm2/helper'

成功:

  1. hive> import table hm2.helper from '/tmp/export/hm2/helper'
  2. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=13/msgtype=helper 
  3. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper 
  4. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00001 
  5. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00003 
  6. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00004 
  7. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00005 
  8. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00006 
  9. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00007 
  10. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00008 
  11. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00009 
  12. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00010 
  13. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00011 
  14. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00012 
  15. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00013 
  16. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00014 
  17. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00015 
  18. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=13/msgtype=helper 
  19. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=13/msgtype=helper/part-m-00002 
  20. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper 
  21. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00000 
  22. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00002 
  23. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00006 
  24. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00016 
  25. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-22/hour=08/msgtype=helper 
  26. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-22/hour=08/msgtype=helper/part-m-00006 
  27. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-22/hour=09/msgtype=helper 
  28. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-22/hour=09/msgtype=helper/part-m-00000 
  29. Loading data to table hm2.helper partition (dt=2018-06-12, hour=13, msgtype=helper) 
  30. Loading data to table hm2.helper partition (dt=2018-06-12, hour=14, msgtype=helper) 
  31. Loading data to table hm2.helper partition (dt=2018-06-13, hour=13, msgtype=helper) 
  32. Loading data to table hm2.helper partition (dt=2018-06-13, hour=14, msgtype=helper) 
  33. Loading data to table hm2.helper partition (dt=2018-06-22, hour=08, msgtype=helper) 
  34. Loading data to table hm2.helper partition (dt=2018-06-22, hour=09, msgtype=helper) 
  35. OK 
  36. Time taken: 4.966 seconds 

這樣就可以在新的hive中執行:

  1. select count(*) from hm2.helper; 

只導出某一個分區

  1. 導出數據 
  2. export table hm2.helper partition(dt='2017-12-16'to '/tmp/export/helper_2017-12-16' ; 
  3. 數據復制 
  4. hadoop distcp hdfs://dc1.xx.com:8020/tmp/export/ hdfs://dc2.xx.com:8020/tmp/export 
  5. 數據導入 
  6. import table hm2.helper partition(dt='2017-12-16'from '/tmp/export/helper_2017-12-16' 

與load data [local] inpath path path2 剪切數據不同,import命令其實是從目標/tmp/export/hm2/helper復制到/user/hive/warehouse/hm2.db/helper,這時候可以把/tmp/export/hm2/helper目錄刪掉了。

==可以使用hive export/import 進行hive數據的批量遷移,本實驗測試了text,orc,parquet,分區表,并測試了不同版本的導入導出。理論上hive導入導出的數據遷移不受版本,數據格式以及表的限制,可以得出結論可以適應hive export/import進行任何hive數據的遷移==

參考鏈接:https://blog.csdn.net/u9999/article/details/78830818

hbase數據遷移

HBase數據遷移是很常見的操作,目前業界主要的遷移方式主要分為以下幾類:

從上面圖中可看出,目前的方案主要有四類,Hadoop層有一類,HBase層有三類。實際中用了hbase層的Export / Import方法,這里介紹一下。

Export/Import方式

源(測試)集群每個節點可以識別目標集群每個節點

源集群hbase執行

  1. hbase org.apache.hadoop.hbase.mapreduce.Export 'hm2:test' hdfs://qcloud-hadoop02:9000/tmp/hbase_export/test 

注意:這里路徑需要帶hdfs://nameser/path ,否則就export 到本地了,下同。

目標集群hbase執行

  1. hbase org.apache.hadoop.hbase.mapreduce.Import 'hm2:test' hdfs://qcloud-hadoop02:9000/tmp/hbase_export/test 

或者

目標集群每個節點可以識別源(測試)集群每個節點

源集群hbase執行

  1. hbase org.apache.hadoop.hbase.mapreduce.Export 'hm2:test' hdfs://qcloud-test-hadoop01:9000/tmp/hbase_export/test 

目標集群hbase執行

  1. hbase org.apache.hadoop.hbase.mapreduce.Import 'hm2:test' hdfs://qcloud-test-hadoop01:9000/tmp/hbase_export/test 

同步元數據

因為分區信息發生了改變,元信息沒有同步。

數據導入到指定的文件夾之后,修復分區和表的元信息,(沒有使用rbuy的各種腳本,0.9之后就D了,)

  1. hbase hbck -fixTableOrphans 'hm2:test' 
  2. hbase hbck -fixMeta 'hm2:test' 
  3. hbase hbck -fixAssignments 'hm2:test' 
  4. hbase hbck -repair 'hm2:test' 

總結

上文把HBase數據遷移過程中常用的一些方法作了一個大概介紹,總結起來就四點:

  • DistCp: 文件層的數據同步,也是我們常用的
  • CopyTable: 這個涉及對原表數據Scan,然后直接Put到目標表,效率較低
  • Export/Import: 類似CopyTable, Scan出數據放到文件,再把文件傳輸到目標集群作Import
  • Snapshot: 比較常用 , 應用靈活,采用快照技術,效率比較高

具體應用時,要結合自身表的特性,考慮數據規模、數據讀寫方式、實時數據&離線數據等方面,再選擇使用哪種。

資料

 

https://www.cnblogs.com/felixzh/p/5920153.html http://hadoop.apache.org/docs/r1.0.4/cn/quickstart.html

 

責任編輯:武曉燕 來源: Java大數據與數據倉庫
相關推薦

2010-06-03 17:08:28

Hadoop Shel

2010-06-07 15:48:40

Hadoop0.20.

2018-02-02 16:15:02

Hadoop數據遷移集群

2016-11-14 10:23:08

Hadoop工具大數據數據倉庫

2010-03-09 09:49:01

Oracle跨平臺遷移

2010-06-03 18:22:38

Hadoop

2022-10-14 15:44:03

大數據Hadoop

2023-08-07 14:28:42

技術遷移

2010-08-13 14:58:01

FlexNumber數據類型

2012-11-22 14:38:44

Windows Azu

2010-08-24 08:47:20

paddingCSS

2010-08-24 10:01:05

DIV

2010-06-03 15:39:47

Hadoop配置

2010-06-02 13:24:02

SVN用法

2014-08-06 09:57:15

hadoop ShelShell命令

2024-08-27 08:00:00

2010-08-23 15:33:47

CSSpadding

2009-09-07 16:13:56

C# MessageB

2010-08-23 08:45:08

CSSpadding內邊距

2010-09-01 13:37:58

CSSclip屬性
點贊
收藏

51CTO技術棧公眾號

女人色偷偷aa久久天堂| 亚洲一区二区av| 99久久伊人精品| 欧美有码在线观看视频| 国产精久久一区二区三区| 69堂免费精品视频在线播放| 亚洲三级电影全部在线观看高清| 国产精品日韩一区二区三区| 天堂网中文字幕| 天天影视欧美综合在线观看| 亚洲国产黄色片| 国产一区二区在线免费播放| 欧美videos另类精品| 91看片淫黄大片一级| 91精品久久久久| 国产无遮挡又黄又爽又色| re久久精品视频| 日韩欧美国产wwwww| 黑森林福利视频导航| 黄色免费网站在线观看| 97久久超碰国产精品| 成人精品一区二区三区电影免费| 国产一级特黄毛片| 日韩在线观看电影完整版高清免费悬疑悬疑| 欧美精品aⅴ在线视频| 精品少妇在线视频| 性开放的欧美大片| 91毛片在线观看| 51午夜精品| 五月婷婷丁香在线| 日韩视频免费| 美女视频黄免费的亚洲男人天堂| 亚洲综合欧美综合| 欧美人妖在线观看| 日韩精品一区二区三区在线播放| 在线免费av播放| 久久青青视频| 亚洲成人自拍偷拍| 正在播放精油久久| 高清在线观看av| 91热门视频在线观看| 懂色av一区二区三区在线播放| 人妻中文字幕一区二区三区| 一本色道久久| 久久久亚洲福利精品午夜| 日韩a级片在线观看| 日韩欧美午夜| 亚洲精品久久久久中文字幕二区 | 91久久国产最好的精华液| 男同互操gay射视频在线看| av成人手机在线| 久久久久免费观看| 麻豆av一区二区| 亚洲色图欧美视频| 91蝌蚪porny| 欧美日韩三区四区| 免费人成在线观看网站| 久久久久久久久久久久久女国产乱 | 欧美国产日韩综合| 欧美一区成人| 欧美黑人国产人伦爽爽爽| 国产精品国产三级国产传播| 91一区二区三区四区| 色综合伊人色综合网站| а天堂中文在线资源| 天天插综合网| 欧美老肥婆性猛交视频| 男人与禽猛交狂配| 午夜视频一区| 国内成人精品一区| 国产精品自拍99| 久久高清国产| 国产精品欧美日韩一区二区| 一本色道久久综合亚洲| 开心九九激情九九欧美日韩精美视频电影| 国产精品视频免费观看www| 国产精品无码一区二区桃花视频| 国产主播一区二区三区| av免费观看久久| 亚洲精品久久久狠狠狠爱| 成人精品视频网站| 免费亚洲一区二区| 最新97超碰在线| 亚洲精品成人精品456| 欧美狂野激情性xxxx在线观| 综合久久2023| 欧美日韩精品系列| 午夜视频在线免费看| 秋霞综合在线视频| 色噜噜久久综合伊人一本| 91麻豆精品国产91久久综合| 一区二区三区午夜探花| 7m第一福利500精品视频| 国产污视频网站| 久久国产婷婷国产香蕉| 国产精品久久久久久久天堂第1集 国产精品久久久久久久免费大片 国产精品久久久久久久久婷婷 | 99久久久成人国产精品| 精品伦理精品一区| a级大片在线观看| 天天综合亚洲| 91精品国产91久久久久福利| 中文有码在线播放| 成人精品亚洲人成在线| 视频一区二区在线| 欧美人与禽猛交乱配| 91精品1区2区| 欧美激情 亚洲| 成人区精品一区二区婷婷| 久久久久久噜噜噜久久久精品| 国产精品视频123| 国产又黄又大久久| 欧美婷婷久久| 日韩专区av| 欧美日韩视频免费播放| 成人av毛片在线观看| 日本一区福利在线| 超碰日本道色综合久久综合| 久久中文字幕免费| 成年人国产精品| 中文字幕日韩精品一区二区| 性欧美freesex顶级少妇| 日韩欧美一区二区久久婷婷| 欧美激情 一区| 久久成人在线| 好吊色欧美一区二区三区| 成人在线观看免费网站| 欧美自拍丝袜亚洲| 性久久久久久久久久久| 国内精品嫩模av私拍在线观看| 国产精品视频26uuu| 日本aaa在线观看| 亚洲成人激情av| 先锋资源在线视频| 性欧美69xoxoxoxo| 国产精品三级美女白浆呻吟 | 亚洲欧美专区| 永久免费精品影视网站| 五月婷婷激情视频| 2020国产精品| 国产精品秘入口18禁麻豆免会员| 中文字幕日韩高清在线| 久久国产精品久久久| 国产一区二区三区三州| 国产精品久久久久一区二区三区共| 日韩一级免费在线观看| 九九免费精品视频在线观看| 午夜精品久久久久久久白皮肤 | 成人自拍av| 亚洲美女精品久久| 国内精品福利视频| 91丨porny丨在线| 国产美女网站在线观看| heyzo欧美激情| 欧美极品少妇xxxxⅹ免费视频| www.久久综合| 午夜精品久久久久久久| 日本少妇xxxx| 亚洲免费中文| 欧美久久久久久| 日韩在线短视频| 中文亚洲视频在线| 中文字幕有码视频| 综合久久久久久| 中文字幕日韩久久| 伊人青青综合网| 高清不卡日本v二区在线| 超清av在线| 日韩电影网在线| 亚洲欧美一区二区三区在线观看| 国产校园另类小说区| 天堂一区在线观看| 一本一道久久a久久精品蜜桃| 亚洲自拍中文字幕| 免费不卡av| 亚洲国产精品福利| 国产一级免费视频| 国产精品天天摸av网| 色91精品久久久久久久久| 中文字幕人成人乱码| 国内成+人亚洲| 91大神在线观看线路一区| 久久久黄色av| 91九色视频在线观看| 99久久国产精| 亚洲一区欧美激情| 日韩欧美一区二区视频在线播放| av在线日韩| 久久成人18免费网站| 黄色aaa毛片| 色婷婷av一区| 成人做爰视频网站| a美女胸又www黄视频久久| 国产免费人做人爱午夜视频| 97欧美在线视频| 国产亚洲欧美另类一区二区三区 | 欧美高清视频在线播放| 午夜在线视频观看| 欧美日韩第一区日日骚| 日韩成人一区二区三区| 国产精品白丝在线| 国产精品无码电影| 激情五月播播久久久精品| 成年人午夜视频在线观看| 第一社区sis001原创亚洲| 国产精品一区二区av| 欧美成人家庭影院| 国产91成人在在线播放| 乱人伦中文视频在线| 日韩毛片在线观看| www夜片内射视频日韩精品成人| 色综合久久88色综合天天免费| 日韩成人毛片视频| 中文字幕国产一区| 天堂www中文在线资源| 久久er99热精品一区二区| 日韩精品综合在线| 亚洲精品小说| 亚洲国产一区二区三区在线| 欧美影院天天5g天天爽| 亚洲综合中文字幕在线观看| 欧美与亚洲与日本直播| 91精品国产91久久久久久| 伊人222成人综合网| 中文字幕精品国产| 久久精品国产亚洲a∨麻豆| 亚洲大胆人体av| 精品人妻aV中文字幕乱码色欲| 欧美日韩在线精品一区二区三区激情| 欧美亚韩一区二区三区| 亚洲精品日韩综合观看成人91| 黄色av片三级三级三级免费看| 26uuu色噜噜精品一区| 精品无码av一区二区三区| 国产一区在线精品| 亚洲18在线看污www麻豆 | 可以看污的网站| 日韩精品亚洲一区二区三区免费| 天堂…中文在线最新版在线| 欧美日韩99| 51xx午夜影福利| 外国成人免费视频| 最新不卡av| 国产精品久久久久久久久久10秀 | 欧美性色综合| 中文字幕色呦呦| 你懂的视频一区二区| 国产树林野战在线播放| 中文字幕免费一区二区| 久久久无码中文字幕久...| 91精品一区二区三区综合| 在线观看日韩片| 久久久久久久久久久久久久久久久久 | 91久久久久久久久久久久| 欧美色窝79yyyycom| 在线观看亚洲一区二区| 欧美三电影在线| 97在线播放免费观看| 在线成人av影院| 97精品人妻一区二区三区在线 | 黄色片视频在线| 久久99国产精品久久| 992kp免费看片| 国产黑丝在线一区二区三区| 国产香蕉精品视频| 99久久综合色| 日韩女同一区二区三区| 国产精品国产馆在线真实露脸| 手机在线免费看毛片| 亚洲综合色视频| 日韩高清免费av| 色婷婷激情一区二区三区| 夜夜躁日日躁狠狠久久av| 欧美日韩国产三级| 国产成人精品无码高潮| 亚洲电影免费观看高清| 黄色软件在线| 久热爱精品视频线路一| 538在线观看| 国产精品久久久久一区二区| 99精品美女视频在线观看热舞| 成人av资源网| 欧美日韩国产一区二区三区不卡 | 91九色对白| 亚洲国产精品嫩草影院久久av| 日韩欧美在线观看强乱免费| 午夜国产一区二区| 成人黄色大片网站| 丝袜美腿成人在线| 中文字幕在线视频一区二区三区 | 欧美日韩一卡二卡三卡 | 亚洲国产精品专区久久| 国产在线视频网址| 超碰精品一区二区三区乱码 | 国产美女久久久| 激情亚洲另类图片区小说区| 视频一区二区在线| 欧美视频官网| 浓精h攵女乱爱av| 国产a区久久久| 久久视频一区二区三区| 亚洲一二三四久久| 中文av免费观看| 精品国产污污免费网站入口| freemovies性欧美| 91黑丝高跟在线| 日韩精品一级| 亚洲成人网上| 午夜一级久久| 亚洲无人区码一码二码三码| 亚洲欧洲www| 亚洲s码欧洲m码国产av| 日韩欧美aaaaaa| aaa在线观看| 欧美怡春院一区二区三区| 亚洲电影二区| 青青草原成人| 9久re热视频在线精品| 激情在线观看视频| 中文字幕成人网| 91美女免费看| 精品国产欧美一区二区| 久久bbxx| 国产精品爽爽爽| 国产一区二区三区四区二区| 日韩视频在线视频| 国产精品自拍在线| 免费黄色激情视频| 在线视频一区二区三| 天天摸天天干天天操| 欧美成人精品一区二区| 亚洲福利影视| 亚洲综合网中心| 免费观看在线综合色| 国产黄片一区二区三区| 天天影视涩香欲综合网| 欧美 日韩 国产 成人 在线| 欧美激情一区二区三区成人| 国产精品高清一区二区| 综合国产精品久久久| 久久精品国产成人一区二区三区 | 欧美色女视频| 熟妇人妻va精品中文字幕 | 午夜国产福利视频| 欧洲激情一区二区| 成人亚洲综合天堂| 国产福利精品av综合导导航| 九九视频免费观看视频精品| 国产淫片免费看| 久久午夜电影网| 久久人妻免费视频| 亚洲午夜av久久乱码| 日韩av免费| 亚洲一二区在线| 久久成人麻豆午夜电影| 9999热视频| 精品免费日韩av| 蜜桃av.网站在线观看| 精品国产乱码久久久久久久软件 | 久久99性xxx老妇胖精品| 欧美牲交a欧美牲交aⅴ免费真 | 精品国产一区二区三区av性色| 在线heyzo| 国产色综合一区二区三区| 亚洲日本黄色| 右手影院亚洲欧美| 在线精品视频小说1| 在线观看国产原创自拍视频| 91视频免费在线| 亚洲天堂久久| 久久亚洲AV成人无码国产野外| 欧美在线不卡视频| 日本www在线观看视频| 亚洲在线观看视频网站| 在线视频观看日韩| 第一次破处视频| 欧美一区二区三级| gogo久久| 日韩中文一区二区三区| 国产在线观看免费一区| 在线看成人av| 一区二区欧美在线| 国产一区二区三区国产精品| 日韩黄色短视频| 中文幕一区二区三区久久蜜桃| av网站在线观看免费| 午夜剧场成人观在线视频免费观看| 一呦二呦三呦国产精品| theporn国产精品| 欧美日韩国产页| 一广人看www在线观看免费视频| 99re在线播放| 久久不射中文字幕| 免费网站看av| 伊人伊成久久人综合网小说| 日韩视频一二区| 无码少妇一区二区三区芒果| 一个色在线综合| 69视频在线观看| 精品一区二区日本| 国产最新精品免费|