精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hive支持的文件格式與壓縮算法

大數(shù)據(jù) 算法
只要是配置了正確的文件類型和壓縮類型(比如Textfile+Gzip、SequenceFile+Snappy等),Hive都可以按預(yù)期讀取并解析數(shù)據(jù),提供SQL功能。

[[194194]]

概述

只要是配置了正確的文件類型和壓縮類型(比如Textfile+Gzip、SequenceFile+Snappy等),Hive都可以按預(yù)期讀取并解析數(shù)據(jù),提供SQL功能。

SequenceFile本身的結(jié)構(gòu)已經(jīng)設(shè)計(jì)了內(nèi)容進(jìn)行壓縮。所以對于SequenceFile文件的壓縮,并不是先生成SequenceFile文件,再對文件進(jìn)行壓縮。而是生成SequenceFile文件時(shí),對其中的內(nèi)容字段進(jìn)行壓縮。最終壓縮后,對外仍體現(xiàn)為一個(gè)SequenceFile。

RCFile、ORCFile、Parquet、Avro對于壓縮的處理方式與SequenceFile相同。

文件格式

  1. Textfile
  2. SequenceFile
  3. RCFile
  4. ORCFile
  5. Parquet
  6. Avro

壓縮算法的編解碼器

TEXTFILE

  1. --創(chuàng)建一個(gè)表,格式為文本文件: 
  2. CREATE EXTERNAL TABLE student_text (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED  
  4.     FIELDS TERMINATED BY ','  
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --導(dǎo)入數(shù)據(jù)到此表中,將啟動MR任務(wù) 
  8. INSERT OVERWRITE TABLE student_text SELECT * FROM student; 

可查看到生成的數(shù)據(jù)文件的格式為非壓縮的文本文件:

  1. hdfs dfs -cat /user/hive/warehouse/student_text/000000_0 
  2.  
  3. 1001810081,cheyo 
  4. 1001810082,pku 
  5. 1001810083,rocky 
  6. 1001810084,stephen 
  7. 2002820081,sql 
  8. 2002820082,hello 
  9. 2002820083,hijj 
  10. 3001810081,hhhhhhh 
  11. 3001810082,abbbbbb 

文本文件,DEFLATE壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_text_def (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec;  
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_text_def SELECT * FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_text_def; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).deflate文件。

  1. hdfs dfs -ls /user/hive/warehouse/student_text_def/ 
  2. -rw-r--r--   2015-09-16 12:48 /user/hive/warehouse/student_text_def/000000_0.deflate 
  3. -rw-r--r--   2015-09-16 12:48 /user/hive/warehouse/student_text_def/000001_0.deflate 
  4. -rw-r--r--   2015-09-16 12:48 /user/hive/warehouse/student_text_def/000002_0.deflate 

文本文件,Gzip壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_text_gzip (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec; 
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_text_gzip SELECT * FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_text_gzip; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).gz文件。解開.gz文件,可以看到明文文本:

  1. hdfs dfs -ls /user/hive/warehouse/student_text_gzip/ 
  2. -rw-r--r--  2015-09-15 10:03 /user/hive/warehouse/student_text_gzip/000000_0.gz 
  3. -rw-r--r--  2015-09-15 10:03 /user/hive/warehouse/student_text_gzip/000001_0.gz 
  4. -rw-r--r--  2015-09-15 10:03 /user/hive/warehouse/student_text_gzip/000002_0.gz 

文本文件,Bzip2壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_text_bzip2 (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置壓縮類型為Bzip2壓縮: 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.BZip2Codec; 
  11. --導(dǎo)入數(shù)據(jù) 
  12. INSERT OVERWRITE TABLE student_text_bzip2 SELECT * FROM student; 
  13. --查看數(shù)據(jù): 
  14. SELECT * FROM student_text_bzip2; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).bz2文件。解開.bz2文件,可以看到明文文本:

  1. hdfs dfs -ls /user/hive/warehouse/student_text_bzip2 
  2. -rw-r--r--  2015-09-15 10:09 /user/hive/warehouse/student_text_bzip2/000000_0.bz2 
  3. -rw-r--r--  2015-09-15 10:09 /user/hive/warehouse/student_text_bzip2/000001_0.bz2 
  4. -rw-r--r--  2015-09-15 10:09 /user/hive/warehouse/student_text_bzip2/000002_0.bz2 

文本文件,lzo壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_text_lzo (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置為LZO壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec; 
  11. --導(dǎo)入數(shù)據(jù) 
  12. INSERT OVERWRITE TABLE student_text_lzo SELECT * FROM student; 
  13. --查詢數(shù)據(jù) 
  14. SELECT * FROM student_text_lzo; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).lzo壓縮。解開.lzo文件,可以看到明文文本。

未實(shí)測,需要安裝lzop庫

文本文件,lz4壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_text_lz4 (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置為LZ4壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.Lz4Codec; 
  11. --導(dǎo)入數(shù)據(jù) 
  12. INSERT OVERWRITE TABLE student_text_lz4 SELECT * FROM student; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).lz4壓縮。使用cat查看.lz4文件,可以看到是壓縮后的文本。

  1. hdfs dfs -ls /user/hive/warehouse/student_text_lz4 
  2. -rw-r--r-- 2015-09-16 12:06 /user/hive/warehouse/student_text_lz4/000000_0.lz4 
  3. -rw-r--r-- 2015-09-16 12:06 /user/hive/warehouse/student_text_lz4/000001_0.lz4 
  4. -rw-r--r-- 2015-09-16 12:06 /user/hive/warehouse/student_text_lz4/000002_0.lz4 

文本文件,Snappy壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_text_snappy (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.compress.map.output=true
  10. SET mapred.output.compress=true
  11. SET mapred.output.compression=org.apache.hadoop.io.compress.SnappyCodec; 
  12. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; 
  13. SET io.compression.codecs=org.apache.hadoop.io.compress.SnappyCodec; 
  14. --導(dǎo)入數(shù)據(jù) 
  15. INSERT OVERWRITE TABLE student_text_snappy SELECT * FROM student; 
  16. --查詢數(shù)據(jù) 
  17. SELECT * FROM student_text_snappy; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).snappy壓縮文件。使用cat查看.snappy文件,可以看到是壓縮后的文本:

  1. hdfs dfs -ls /user/hive/warehouse/student_text_snappy 
  2. Found 3 items 
  3. -rw-r--r--   2015-09-15 16:42 /user/hive/warehouse/student_text_snappy/000000_0.snappy 
  4. -rw-r--r--   2015-09-15 16:42 /user/hive/warehouse/student_text_snappy/000001_0.snappy 
  5. -rw-r--r--   2015-09-15 16:42 /user/hive/warehouse/student_text_snappy/000002_0.snappy 

SEQUENCEFILE

Sequence文件,DEFLATE壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_seq_def (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS SEQUENCEFILE; 
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec;  
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_seq_def SELECT * FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_seq_def; 

查看數(shù)據(jù)文件,是一個(gè)密文的文件.

  1. hdfs dfs -ls /user/hive/warehouse/student_seq_def/ 
  2. -rw-r--r--  /user/hive/warehouse/student_seq_def/000000_0 

Sequence文件,Gzip壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_seq_gzip (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS SEQUENCEFILE; 
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec; 
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_seq_gzip SELECT * FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_seq_gzip; 

查看數(shù)據(jù)文件,是一個(gè)密文的文件,無法通過gzip解壓:

  1. hdfs dfs -ls /user/hive/warehouse/student_seq_gzip/ 
  2. -rw-r--r--  /user/hive/warehouse/student_seq_gzip/000000_0 

RCFILE

RCFILE,Gzip壓縮

  1. CREATE TABLE student_rcfile_gzip (id STRING, name STRING) 
  2. ROW FORMAT DELIMITED 
  3.     FIELDS TERMINATED BY ',' 
  4.     LINES TERMINATED BY '\n' 
  5. STORED AS RCFILE; 
  6.  
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec; 
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_rcfile_gzip SELECT id,name FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_rcfile_gzip; 

ORCFile

ORCFile有自己的參數(shù)設(shè)置壓縮格式,一般不使用上述Hive參數(shù)設(shè)置壓縮參數(shù)。

ORCFile,ZLIB壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_orcfile_zlib (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS ORCFILE TBLPROPERTIES ("orc.compress"="ZLIB"); 
  7.  
  8. --導(dǎo)入數(shù)據(jù) 
  9. INSERT OVERWRITE TABLE student_orcfile_zlib SELECT id,name FROM student; 
  10. --查詢數(shù)據(jù) 
  11. SELECT * FROM student_orcfile_zlib; 

ORCFILE,Snappy壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_orcfile_snappy2 (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS ORCFILE TBLPROPERTIES ("orc.compress"="SNAPPY"); 
  7.  
  8. --導(dǎo)入數(shù)據(jù) 
  9. INSERT OVERWRITE TABLE student_orcfile_snappy2 SELECT id,name FROM student; 
  10. --查詢數(shù)據(jù) 
  11. SELECT * FROM student_orcfile_snappy2; 

一般不使用下述方式。下述方式壓縮后,結(jié)果與上述同類型壓縮(SNAPPY)不同。具體原因待進(jìn)一步研究。

  1. --創(chuàng)建表 
  2. CREATE TABLE student_orcfile_snappy (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS ORCFILE; 
  7. --設(shè)置壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.compress.map.output=true
  10. SET mapred.output.compress=true
  11. SET mapred.output.compression=org.apache.hadoop.io.compress.SnappyCodec; 
  12. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; 
  13. SET io.compression.codecs=org.apache.hadoop.io.compress.SnappyCodec; 
  14. --導(dǎo)入數(shù)據(jù) 
  15. INSERT OVERWRITE TABLE student_orcfile_snappy SELECT id,name FROM student; 
  16. --查詢數(shù)據(jù) 
  17. SELECT * FROM student_orcfile_snappy; 

Parquet

Parquet,Snappy壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_parquet_snappy (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS PARQUET; 
  7. --設(shè)置壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.compress.map.output=true
  10. SET mapred.output.compress=true
  11. SET mapred.output.compression=org.apache.hadoop.io.compress.SnappyCodec; 
  12. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; 
  13. SET io.compression.codecs=org.apache.hadoop.io.compress.SnappyCodec; 
  14. --導(dǎo)入數(shù)據(jù) 
  15. INSERT OVERWRITE TABLE student_parquet_snappy SELECT id,name FROM student; 
  16. --查詢數(shù)據(jù) 
  17. SELECT * FROM student_parquet_snappy; 

Avro

Avro,Snappy壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_avro_snappy (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS AVRO; 
  7. --設(shè)置壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.compress.map.output=true
  10. SET mapred.output.compress=true
  11. SET mapred.output.compression=org.apache.hadoop.io.compress.SnappyCodec; 
  12. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; 
  13. SET io.compression.codecs=org.apache.hadoop.io.compress.SnappyCodec; 
  14. --導(dǎo)入數(shù)據(jù) 
  15. INSERT OVERWRITE TABLE student_avro_snappy SELECT id,name FROM student; 
  16. --查詢數(shù)據(jù) 
  17. SELECT * FROM student_avro_snappy; 
責(zé)任編輯:武曉燕 來源: oschina博客
相關(guān)推薦

2010-08-02 14:19:28

DB2數(shù)據(jù)庫

2010-08-02 14:14:13

DB2數(shù)據(jù)庫

2012-05-29 09:06:32

Hadoop文件格式

2012-05-29 09:48:21

Hadoop

2016-12-01 14:47:20

2017-08-25 17:41:17

Paradox數(shù)據(jù)文件格式

2010-08-03 15:40:30

NFS文件格式

2011-03-03 10:48:36

DB2數(shù)據(jù)庫外部文件

2023-11-02 09:54:21

ODT文件

2021-09-29 15:52:26

計(jì)算機(jī)配置文件語言

2010-07-28 14:26:37

DB2支持

2010-09-06 12:44:24

DB2數(shù)據(jù)庫

2010-07-27 13:34:08

DB2數(shù)據(jù)庫

2011-05-26 10:52:41

DB2數(shù)據(jù)庫

2010-08-02 14:09:57

DB2數(shù)據(jù)庫

2010-08-26 16:26:19

DB2數(shù)據(jù)庫外部文件

2010-07-27 15:20:01

DB2數(shù)據(jù)庫

2022-04-22 17:07:21

MIDI傳輸協(xié)議音樂技術(shù)

2010-05-07 11:38:55

Oracle DB2

2009-07-20 09:44:31

DB2外部文件格式
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

久久免费视频精品| 一区二区三区不卡在线| 女人十八岁毛片| 国产尤物久久久| 欧美日韩电影在线| 黄色一级大片免费| 蜜桃免费在线| 国产一区二区三区国产| 欧美在线视频在线播放完整版免费观看| 极品久久久久久久| 97久久综合精品久久久综合| 另类av一区二区| 久久久久一区| 在线看日韩欧美| 精人妻一区二区三区| 成人看片网页| 婷婷六月综合网| 中文字幕免费在线不卡| 欧洲一区av| 国产大陆a不卡| 欧美专区在线播放| 国产乱国产乱老熟300| 国产欧美日韩视频在线| 亚洲国产97在线精品一区| 中文字幕中文在线| 四虎影视4hu4虎成人| 亚洲国产精品久久不卡毛片 | 国产欧美一区二区三区沐欲| www.成人av.com| 夜夜躁很很躁日日躁麻豆| 亚洲国产高清一区二区三区| 久久精品视频免费播放| 51妺嘿嘿午夜福利| 欧洲亚洲视频| 亚洲精品在线观| 欧美视频亚洲图片| 成人综合网站| 在线观看视频一区二区欧美日韩| 美女日批免费视频| 国产精品-区区久久久狼| 国产视频手机在线观看| 日本视频在线一区| 国产精品久久久久久久久久99| 青青草av在线播放| 日韩一级大片| 韩剧1988免费观看全集| 国产精品成人av久久| 欧美私人啪啪vps| 久久99精品久久久久久琪琪| 18岁成人毛片| 欧美激情一级片一区二区| 麻豆成人在线看| 91插插插插插插| 欧美久久综合| 久久久久久亚洲精品中文字幕| 久久久久99精品成人片毛片| 狠狠久久婷婷| 57pao精品| 国产suv精品一区二区33| 肉色丝袜一区二区| 国产精品网址在线| 91精品国产色综合久久不8| 精品亚洲成av人在线观看| 国产美女扒开尿口久久久| 亚洲午夜精品久久久| 国内精品伊人久久久久影院对白| 91观看网站| 天堂成人在线观看| 97se狠狠狠综合亚洲狠狠| 欧美中文娱乐网| 18视频免费网址在线观看| 亚洲人亚洲人成电影网站色| 一级片免费观看视频| 国产a久久精品一区二区三区| 日韩精品中文字幕视频在线| 玖玖爱在线观看| 欧美日中文字幕| 操日韩av在线电影| 久久精品女人毛片国产| 久久国产直播| 91免费在线视频观看| 91精品1区2区| 亚洲高清在线免费观看| 成人网av.com/| 精品嫩草影院久久| 一卡二卡三卡四卡| 97视频精品| 97精品伊人久久久大香线蕉| 蜜臀尤物一区二区三区直播| 激情另类小说区图片区视频区| 成人一区二区在线| 精品欧美不卡一区二区在线观看| 国产精品免费视频观看| 久久99久久99精品| 亚洲a∨精品一区二区三区导航| 91精品国产综合久久小美女| 精品国产av色一区二区深夜久久| 波多野结衣在线观看一区二区三区| 欧美美最猛性xxxxxx| 超碰超碰超碰超碰| 久久66热偷产精品| 久久一区二区三区av| 黄色一级大片在线免费看产| 精品免费在线视频| 亚洲图色中文字幕| 免费av一区二区三区四区| 久久成人av网站| 丰满少妇xoxoxo视频| 国产乱码精品一区二区三区av| 欧美13一14另类| 丝袜综合欧美| 日本欧美一区二区在线观看| 色婷婷亚洲综合| 五月天亚洲视频| 成人香蕉社区| 美女av一区二区三区| 91在线视频免费播放| 成人av资源站| 91传媒免费视频| 成人在线视频www| 亚洲最大在线视频| 日本三级理论片| 国产精品1区二区.| 一区二区三区视频在线播放| 成人自拍av| 日韩久久午夜影院| 日本一区二区三区四区五区| 国产电影精品久久禁18| 丰满女人性猛交| 91精品国产经典在线观看| 精品无码久久久久久国产| 看片网站在线观看| 国产酒店精品激情| 中文网丁香综合网| 欧美高清xxx| 日韩视频在线一区| 中文区中文字幕免费看| 国产亚洲一二三区| 日韩网址在线观看| 亚洲69av| 日韩免费观看高清| 国产视频福利在线| 在线免费观看日本欧美| caopeng视频| 久久久久中文| 亚洲不卡一卡2卡三卡4卡5卡精品| 九色porny自拍视频在线观看| 亚洲激情第一页| 天海翼一区二区| 99久久99久久久精品齐齐| 亚洲不卡中文字幕无码| 亚洲成人一品| 国产精品福利无圣光在线一区| 国产午夜在线观看| 欧美日韩亚洲综合一区二区三区| 九九九视频在线观看| 久久成人羞羞网站| 热这里只有精品| 91成人午夜| 成人国产电影网| 国产精品大陆在线观看| 成年人视频在线看| 91麻豆精品国产自产在线观看一区| 性生交大片免费全黄| 国产一区二区导航在线播放| 欧美视频在线第一页| 欧美久久香蕉| 国产精品久久久久免费a∨ | 盗摄精品av一区二区三区| 美女扒开大腿让男人桶| 日韩大尺度在线观看| 国产成人精品网站| 欧美96在线| 欧美精品一区二区三区蜜桃| 日韩中文字幕在线观看视频| 国产亚洲成av人在线观看导航 | 色噜噜狠狠狠综合曰曰曰88av| 91成品人影院| 亚洲成人久久影院| 级毛片内射视频| 国产精品一品视频| 欧美精品一区免费| 91亚洲自偷观看高清| 国产精品久久波多野结衣| 日本综合字幕| 美乳少妇欧美精品| 五月婷婷免费视频| 欧美日韩国产精选| 国产污片在线观看| 亚洲国产成人一区二区三区| 久久久久国产免费| 日本亚洲一区二区| 日本中文字幕在线视频观看| 国产精品最新| 国产精品一区二区欧美| 亚洲第一视频在线| 亚洲不卡av一区二区三区| 女人又爽又黄免费女仆| 国产真实乱子伦精品视频| 无码中文字幕色专区| 日韩不卡一区| 精品伦精品一区二区三区视频| 久久精品超碰| 久久99国产精品尤物| 在线观看成人av| 精品久久ai电影| 成人精品福利视频| 久九九久频精品短视频| 欧美成人精品h版在线观看| 欧美偷拍视频| 精品国产露脸精彩对白| 亚洲天堂中文网| 日韩欧美在线网址| 国产精品theporn动漫| 亚洲欧美日韩一区| 无码人妻aⅴ一区二区三区69岛| 高清成人在线观看| 三级黄色片播放| 免费在线观看精品| 黄色片一级视频| 亚洲视频www| 欧美a级免费视频| 1024精品久久久久久久久| 日韩欧美亚洲在线| 蜜乳av综合| 久久一区二区三区av| 加勒比久久高清| 国产精品视频免费一区| 亚洲成人黄色| 999国内精品视频在线| 色噜噜成人av在线| 国产精品香蕉国产| 懂色aⅴ精品一区二区三区| 性色av一区二区三区红粉影视| 欧美大胆的人体xxxx| 欧美成人四级hd版| 2024最新电影在线免费观看| 欧美成人久久久| 综合久久2019| 欧美精品制服第一页| a视频在线免费看| 色综合男人天堂| 在线三级中文| 久久久噜噜噜久久久| 国产盗摄在线视频网站| 国语自产精品视频在线看| 91豆花视频在线播放| 欧美精品videossex88| 成人在线免费观看黄色| 91精品成人久久| 一区一区三区| 国产精品美女主播| 亚洲aⅴ网站| 99视频在线免费观看| 成人免费直播在线| 精品在线视频一区二区| 日韩av网站在线免费观看| 蜜桃91精品入口| 欧美日韩在线二区| 免费观看黄色大片| 亚洲国产电影| 国产欧美高清在线| 久久99久久99小草精品免视看| www.午夜av| 国产成人av一区二区三区在线 | 久久品道一品道久久精品| 扒开jk护士狂揉免费| 中文字幕+乱码+中文字幕一区| www.com.av| 亚洲一区二区三区影院| 999这里只有精品| 欧美影视一区二区三区| 国产jzjzjz丝袜老师水多| 亚洲第一色在线| 欧美成人片在线| 日韩一区在线视频| 91jq激情在线观看| 国产精品极品美女在线观看免费| av成人在线网站| 国产一区二区高清视频| 日本久久黄色| 亚洲人成无码网站久久99热国产 | 韩国三级在线看| 国产日本欧洲亚洲| 麻豆changesxxx国产| 在线观看视频91| 成人高潮片免费视频| 亚洲一级黄色片| 色呦呦在线免费观看| 国产成人极品视频| 最新国产精品精品视频| 日韩精品欧美在线| 欧美日韩mv| 欧美三级理论片| 91丨九色丨国产丨porny| 波多野结衣久久久久| 精品国产老师黑色丝袜高跟鞋| 亚洲综合精品在线| 亚洲精品永久免费| 伊人影院在线视频| 国产精品欧美日韩| 天堂资源在线亚洲| 99久久免费观看| 久久99久久久久久久久久久| 在线观看日韩精品视频| 亚洲综合在线第一页| 一本一道精品欧美中文字幕| 日韩精品在线第一页| 久草在线资源站资源站| 国产综合久久久久| 精品久久网站| 欧美性大战久久久久xxx| 国产精品羞羞答答xxdd| 久久视频一区二区三区| 色哟哟国产精品| 亚洲 欧美 精品| 久久久久日韩精品久久久男男| 高清一区二区中文字幕| 五月天亚洲综合情| 久久青草久久| 欧美亚一区二区三区| 亚洲地区一二三色| 亚洲国产999| 久久69精品久久久久久久电影好| 四虎影视成人精品国库在线观看| 日韩高清dvd| 三级久久三级久久| 亚洲精品国产熟女久久久| 黑人巨大精品欧美一区免费视频 | 国产毛片视频网站| 成人精品国产福利| 国产一级黄色av| 日韩欧美国产综合| 在线中文字幕-区二区三区四区| 91香蕉亚洲精品| 91精品国产自产拍在线观看蜜| 中文字幕 91| 国产精品国产三级国产aⅴ入口| 中文字幕无码乱码人妻日韩精品| 国产亚洲综合久久| 麻豆精品蜜桃| 亚洲欧美日韩精品综合在线观看| 日本午夜精品视频在线观看| 国产成人免费在线观看视频| 欧美三级韩国三级日本一级| 国产女主播在线写真| 国产精品久久久久久久久免费 | 欧美黄网在线观看| 成人免费精品视频| 国产 欧美 日韩 在线| 亚洲欧美日韩成人| 成人午夜精品| 在线不卡日本| 国产大片一区二区| 99热国产在线观看| 亚洲欧洲中文天堂| 成人国产一区| 黄黄视频在线观看| 成人av在线播放网站| 亚洲欧美综合自拍| 中文字幕日韩综合av| 久久视频免费| 久久久性生活视频| 国产亚洲精品福利| 国产精品嫩草影院桃色| 欧美多人乱p欧美4p久久| 国产乱论精品| 人人爽人人av| 亚洲精品高清在线观看| 无码国产精品高潮久久99| 国产精品爱久久久久久久| 欧美影视一区| 精品免费久久久久久久| 成人黄色网址在线观看| 特级毛片www| 日韩在线视频播放| 成人影院中文字幕| 国产资源在线观看| 国产一区二区三区网站| 香蕉成人在线| 黄页网站在线观看视频| 国产日韩成人精品| 国产激情久久久久久熟女老人av| 国内精品久久久久影院优| 五月天亚洲色图| 九九热精品国产| 精品动漫一区二区三区| 日韩在线免费电影| 精品久久一区二区三区蜜桃| 捆绑调教一区二区三区| 日韩污视频在线观看| 国产精品12区| 欧美一区二区激情视频| www.久久撸.com| 亚洲va久久久噜噜噜久久| 日本亚洲一区二区三区| 日本高清成人免费播放| 污视频在线看网站| 日韩在线三级| 972aa.com艺术欧美|