精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hive底層原理:Explain執(zhí)行計劃詳解

大數(shù)據(jù)
本節(jié)將介紹 explain 的用法及參數(shù)介紹,IVE提供了EXPLAIN命令來展示一個查詢的執(zhí)行計劃,這個執(zhí)行計劃對于我們了解底層原理,hive 調(diào)優(yōu),排查數(shù)據(jù)傾斜等很有幫助。

[[382322]]

 本文轉(zhuǎn)載自微信公眾號「五分鐘學(xué)大數(shù)據(jù)」,作者園陌。轉(zhuǎn)載本文請聯(lián)系五分鐘學(xué)大數(shù)據(jù)公眾號。

理論

本節(jié)將介紹 explain 的用法及參數(shù)介紹

HIVE提供了EXPLAIN命令來展示一個查詢的執(zhí)行計劃,這個執(zhí)行計劃對于我們了解底層原理,hive 調(diào)優(yōu),排查數(shù)據(jù)傾斜等很有幫助

使用語法如下:

EXPLAIN [EXTENDED|CBO|AST|DEPENDENCY|AUTHORIZATION|LOCKS|VECTORIZATION|ANALYZE] query

explain 后面可以跟以下可選參數(shù),注意:這幾個可選參數(shù)不是 hive 每個版本都支持的

  1. EXTENDED:加上 extended 可以輸出有關(guān)計劃的額外信息。這通常是物理信息,例如文件名。這些額外信息對我們用處不大
  2. CBO:輸出由Calcite優(yōu)化器生成的計劃。CBO 從 hive 4.0.0 版本開始支持
  3. AST:輸出查詢的抽象語法樹。AST 在hive 2.1.0 版本刪除了,存在bug,轉(zhuǎn)儲AST可能會導(dǎo)致OOM錯誤,將在4.0.0版本修復(fù)
  4. DEPENDENCY:dependency在EXPLAIN語句中使用會產(chǎn)生有關(guān)計劃中輸入的額外信息。它顯示了輸入的各種屬性
  5. AUTHORIZATION:顯示所有的實體需要被授權(quán)執(zhí)行(如果存在)的查詢和授權(quán)失敗
  6. LOCKS:這對于了解系統(tǒng)將獲得哪些鎖以運行指定的查詢很有用。LOCKS 從 hive 3.2.0 開始支持
  7. VECTORIZATION:將詳細(xì)信息添加到EXPLAIN輸出中,以顯示為什么未對Map和Reduce進(jìn)行矢量化。從 Hive 2.3.0 開始支持
  8. ANALYZE:用實際的行數(shù)注釋計劃。從 Hive 2.2.0 開始支持

在 hive cli 中輸入以下命令(hive 2.3.7):

  1. explain select sum(id) from test1; 

得到結(jié)果(請逐行看完,即使看不懂也要每行都看):

  1. STAGE DEPENDENCIES: 
  2.   Stage-1 is a root stage 
  3.   Stage-0 depends on stages: Stage-1 
  4.  
  5. STAGE PLANS: 
  6.   Stage: Stage-1 
  7.     Map Reduce 
  8.       Map Operator Tree: 
  9.           TableScan 
  10.             alias: test1 
  11.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  12.             Select Operator 
  13.               expressions: id (type: int
  14.               outputColumnNames: id 
  15.               Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  16.               Group By Operator 
  17.                 aggregations: sum(id) 
  18.                 mode: hash 
  19.                 outputColumnNames: _col0 
  20.                 Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE 
  21.                 Reduce Output Operator 
  22.                   sort order
  23.                   Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE 
  24.                   value expressions: _col0 (type: bigint
  25.       Reduce Operator Tree: 
  26.         Group By Operator 
  27.           aggregations: sum(VALUE._col0) 
  28.           mode: mergepartial 
  29.           outputColumnNames: _col0 
  30.           Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE 
  31.           File Output Operator 
  32.             compressed: false 
  33.             Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE 
  34.             table
  35.                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat 
  36.                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat 
  37.                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe 
  38.  
  39.   Stage: Stage-0 
  40.     Fetch Operator 
  41.       limit: -1 
  42.       Processor Tree: 
  43.         ListSink 

看完以上內(nèi)容有什么感受,是不是感覺都看不懂,不要著急,下面將會詳細(xì)講解每個參數(shù),相信你學(xué)完下面的內(nèi)容之后再看 explain 的查詢結(jié)果將游刃有余。

一個HIVE查詢被轉(zhuǎn)換為一個由一個或多個stage組成的序列(有向無環(huán)圖DAG)。這些stage可以是MapReduce stage,也可以是負(fù)責(zé)元數(shù)據(jù)存儲的stage,也可以是負(fù)責(zé)文件系統(tǒng)的操作(比如移動和重命名)的stage。

我們將上述結(jié)果拆分看,先從最外層開始,包含兩個大的部分:

  • stage dependencies: 各個stage之間的依賴性
  • stage plan: 各個stage的執(zhí)行計劃

先看第一部分 stage dependencies ,包含兩個 stage,Stage-1 是根stage,說明這是開始的stage,Stage-0 依賴 Stage-1,Stage-1執(zhí)行完成后執(zhí)行Stage-0。

再看第二部分 stage plan,里面有一個 Map Reduce,一個MR的執(zhí)行計劃分為兩個部分:

  • Map Operator Tree: MAP端的執(zhí)行計劃樹
  • Reduce Operator Tree: Reduce端的執(zhí)行計劃樹

這兩個執(zhí)行計劃樹里面包含這條sql語句的 operator:

1.map端第一個操作肯定是加載表,所以就是 TableScan 表掃描操作,常見的屬性:

  • alias: 表名稱
  • Statistics: 表統(tǒng)計信息,包含表中數(shù)據(jù)條數(shù),數(shù)據(jù)大小等

2.Select Operator: 選取操作,常見的屬性 :

  • expressions:需要的字段名稱及字段類型
  • outputColumnNames:輸出的列名稱
  • Statistics:表統(tǒng)計信息,包含表中數(shù)據(jù)條數(shù),數(shù)據(jù)大小等

3.Group By Operator:分組聚合操作,常見的屬性:

  • aggregations:顯示聚合函數(shù)信息
  • mode:聚合模式,值有 hash:隨機聚合,就是hash partition;partial:局部聚合;final:最終聚合
  • keys:分組的字段,如果沒有分組,則沒有此字段
  • outputColumnNames:聚合之后輸出列名
  • Statistics: 表統(tǒng)計信息,包含分組聚合之后的數(shù)據(jù)條數(shù),數(shù)據(jù)大小等

4.Reduce Output Operator:輸出到reduce操作,常見屬性:

  • sort order:值為空 不排序;值為 + 正序排序,值為 - 倒序排序;值為 +- 排序的列為兩列,第一列為正序,第二列為倒序

5.Filter Operator:過濾操作,常見的屬性:

  • predicate:過濾條件,如sql語句中的where id>=1,則此處顯示(id >= 1)

6.Map Join Operator:join 操作,常見的屬性:

  • condition map:join方式 ,如Inner Join 0 to 1 Left Outer Join0 to 2
  • keys: join 的條件字段
  • outputColumnNames: join 完成之后輸出的字段
  • Statistics: join 完成之后生成的數(shù)據(jù)條數(shù),大小等

7.File Output Operator:文件輸出操作,常見的屬性

  • compressed:是否壓縮
  • table:表的信息,包含輸入輸出文件格式化方式,序列化方式等

8.Fetch Operator 客戶端獲取數(shù)據(jù)操作,常見的屬性:

  • limit,值為 -1 表示不限制條數(shù),其他值為限制的條數(shù)

好,學(xué)到這里再翻到上面 explain 的查詢結(jié)果,是不是感覺基本都能看懂了。

實踐

本節(jié)介紹 explain 能夠為我們在生產(chǎn)實踐中帶來哪些便利及解決我們哪些迷惑

1. join 語句會過濾 null 的值嗎?

現(xiàn)在,我們在hive cli 輸入以下查詢計劃語句 

  1. select a.id,b.user_name from test1 a join test2 b on a.id=b.id; 

問:上面這條 join 語句會過濾 id 為 null 的值嗎

執(zhí)行下面語句:

  1. explain select a.id,b.user_name from test1 a join test2 b on a.id=b.id; 

我們來看結(jié)果 (為了適應(yīng)頁面展示,僅截取了部分輸出信息):

  1. TableScan 
  2.  alias: a 
  3.  Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  4.  Filter Operator 
  5.     predicate: id is not null (type: boolean) 
  6.     Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  7.     Select Operator 
  8.         expressions: id (type: int
  9.         outputColumnNames: _col0 
  10.         Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  11.         HashTable Sink Operator 
  12.            keys: 
  13.              0 _col0 (type: int
  14.              1 _col0 (type: int
  15.  ... 

從上述結(jié)果可以看到 predicate: id is not null 這樣一行,說明 join 時會自動過濾掉關(guān)聯(lián)字段為 null 值的情況,但 left join 或 full join 是不會自動過濾的,大家可以自行嘗試下。

2. group by 分組語句會進(jìn)行排序嗎?

看下面這條sql

  1. select id,max(user_name) from test1 group by id; 

問:group by 分組語句會進(jìn)行排序嗎

直接來看 explain 之后結(jié)果 (為了適應(yīng)頁面展示,僅截取了部分輸出信息)

  1. TableScan 
  2.    alias: test1 
  3.    Statistics: Num rows: 9 Data size: 108 Basic stats: COMPLETE Column stats: NONE 
  4.    Select Operator 
  5.        expressions: id (type: int), user_name (type: string) 
  6.        outputColumnNames: id, user_name 
  7.        Statistics: Num rows: 9 Data size: 108 Basic stats: COMPLETE Column stats: NONE 
  8.        Group By Operator 
  9.           aggregations: max(user_name) 
  10.           keys: id (type: int
  11.           mode: hash 
  12.           outputColumnNames: _col0, _col1 
  13.           Statistics: Num rows: 9 Data size: 108 Basic stats: COMPLETE Column stats: NONE 
  14.           Reduce Output Operator 
  15.             key expressions: _col0 (type: int
  16.             sort order: + 
  17.             Map-reduce partition columns: _col0 (type: int
  18.             Statistics: Num rows: 9 Data size: 108 Basic stats: COMPLETE Column stats: NONE 
  19.             value expressions: _col1 (type: string) 
  20. ... 

我們看 Group By Operator,里面有 keys: id (type: int) 說明按照 id 進(jìn)行分組的,再往下看還有 sort order: + ,說明是按照 id 字段進(jìn)行正序排序的。

3. 哪條sql執(zhí)行效率高呢?

觀察兩條sql語句

  1. SELECT 
  2.     a.id, 
  3.     b.user_name 
  4. FROM 
  5.     test1 a 
  6. JOIN test2 b ON a.id = b.id 
  7. WHERE 
  8.     a.id > 2; 
  9. SELECT 
  10.     a.id, 
  11.     b.user_name 
  12. FROM 
  13.     (SELECT * FROM test1 WHERE id > 2) a 
  14. JOIN test2 b ON a.id = b.id; 

這兩條sql語句輸出的結(jié)果是一樣的,但是哪條sql執(zhí)行效率高呢

有人說第一條sql執(zhí)行效率高,因為第二條sql有子查詢,子查詢會影響性能

有人說第二條sql執(zhí)行效率高,因為先過濾之后,在進(jìn)行join時的條數(shù)減少了,所以執(zhí)行效率就高了

到底哪條sql效率高呢,我們直接在sql語句前面加上 explain,看下執(zhí)行計劃不就知道了嘛

在第一條sql語句前加上 explain,得到如下結(jié)果

  1. hive (default)> explain select a.id,b.user_name from test1 a join test2 b on a.id=b.id where a.id >2; 
  2. OK 
  3. Explain 
  4. STAGE DEPENDENCIES: 
  5.   Stage-4 is a root stage 
  6.   Stage-3 depends on stages: Stage-4 
  7.   Stage-0 depends on stages: Stage-3 
  8.  
  9. STAGE PLANS: 
  10.   Stage: Stage-4 
  11.     Map Reduce Local Work 
  12.       Alias -> Map Local Tables: 
  13.         $hdt$_0:a 
  14.           Fetch Operator 
  15.             limit: -1 
  16.       Alias -> Map Local Operator Tree: 
  17.         $hdt$_0:a 
  18.           TableScan 
  19.             alias: a 
  20.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  21.             Filter Operator 
  22.               predicate: (id > 2) (type: boolean) 
  23.               Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  24.               Select Operator 
  25.                 expressions: id (type: int
  26.                 outputColumnNames: _col0 
  27.                 Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  28.                 HashTable Sink Operator 
  29.                   keys: 
  30.                     0 _col0 (type: int
  31.                     1 _col0 (type: int
  32.  
  33.   Stage: Stage-3 
  34.     Map Reduce 
  35.       Map Operator Tree: 
  36.           TableScan 
  37.             alias: b 
  38.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  39.             Filter Operator 
  40.               predicate: (id > 2) (type: boolean) 
  41.               Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  42.               Select Operator 
  43.                 expressions: id (type: int), user_name (type: string) 
  44.                 outputColumnNames: _col0, _col1 
  45.                 Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  46.                 Map Join Operator 
  47.                   condition map: 
  48.                        Inner Join 0 to 1 
  49.                   keys: 
  50.                     0 _col0 (type: int
  51.                     1 _col0 (type: int
  52.                   outputColumnNames: _col0, _col2 
  53.                   Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  54.                   Select Operator 
  55.                     expressions: _col0 (type: int), _col2 (type: string) 
  56.                     outputColumnNames: _col0, _col1 
  57.                     Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  58.                     File Output Operator 
  59.                       compressed: false 
  60.                       Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  61.                       table
  62.                           input format: org.apache.hadoop.mapred.SequenceFileInputFormat 
  63.                           output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat 
  64.                           serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe 
  65.       Local Work
  66.         Map Reduce Local Work 
  67.  
  68.   Stage: Stage-0 
  69.     Fetch Operator 
  70.       limit: -1 
  71.       Processor Tree: 
  72.         ListSink 

在第二條sql語句前加上 explain,得到如下結(jié)果

  1. hive (default)> explain select a.id,b.user_name from(select * from  test1 where id>2 ) a join test2 b on a.id=b.id; 
  2. OK 
  3. Explain 
  4. STAGE DEPENDENCIES: 
  5.   Stage-4 is a root stage 
  6.   Stage-3 depends on stages: Stage-4 
  7.   Stage-0 depends on stages: Stage-3 
  8.  
  9. STAGE PLANS: 
  10.   Stage: Stage-4 
  11.     Map Reduce Local Work 
  12.       Alias -> Map Local Tables: 
  13.         $hdt$_0:test1 
  14.           Fetch Operator 
  15.             limit: -1 
  16.       Alias -> Map Local Operator Tree: 
  17.         $hdt$_0:test1 
  18.           TableScan 
  19.             alias: test1 
  20.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  21.             Filter Operator 
  22.               predicate: (id > 2) (type: boolean) 
  23.               Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  24.               Select Operator 
  25.                 expressions: id (type: int
  26.                 outputColumnNames: _col0 
  27.                 Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  28.                 HashTable Sink Operator 
  29.                   keys: 
  30.                     0 _col0 (type: int
  31.                     1 _col0 (type: int
  32.  
  33.   Stage: Stage-3 
  34.     Map Reduce 
  35.       Map Operator Tree: 
  36.           TableScan 
  37.             alias: b 
  38.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  39.             Filter Operator 
  40.               predicate: (id > 2) (type: boolean) 
  41.               Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  42.               Select Operator 
  43.                 expressions: id (type: int), user_name (type: string) 
  44.                 outputColumnNames: _col0, _col1 
  45.                 Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  46.                 Map Join Operator 
  47.                   condition map: 
  48.                        Inner Join 0 to 1 
  49.                   keys: 
  50.                     0 _col0 (type: int
  51.                     1 _col0 (type: int
  52.                   outputColumnNames: _col0, _col2 
  53.                   Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  54.                   Select Operator 
  55.                     expressions: _col0 (type: int), _col2 (type: string) 
  56.                     outputColumnNames: _col0, _col1 
  57.                     Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  58.                     File Output Operator 
  59.                       compressed: false 
  60.                       Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  61.                       table
  62.                           input format: org.apache.hadoop.mapred.SequenceFileInputFormat 
  63.                           output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat 
  64.                           serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe 
  65.       Local Work
  66.         Map Reduce Local Work 
  67.  
  68.   Stage: Stage-0 
  69.     Fetch Operator 
  70.       limit: -1 
  71.       Processor Tree: 
  72.         ListSink 

大家有什么發(fā)現(xiàn),除了表別名不一樣,其他的執(zhí)行計劃完全一樣,都是先進(jìn)行 where 條件過濾,在進(jìn)行 join 條件關(guān)聯(lián)。說明 hive 底層會自動幫我們進(jìn)行優(yōu)化,所以這兩條sql語句執(zhí)行效率是一樣的。

最后

以上僅列舉了3個我們生產(chǎn)中既熟悉又有點迷糊的例子,explain 還有很多其他的用途,如查看stage的依賴情況、排查數(shù)據(jù)傾斜、hive 調(diào)優(yōu)等,小伙伴們可以自行嘗試。

 

責(zé)任編輯:武曉燕 來源: 五分鐘學(xué)大數(shù)據(jù)
相關(guān)推薦

2023-09-21 10:55:51

MysqlSQL語句

2021-03-17 09:35:51

MySQL數(shù)據(jù)庫explain

2024-09-12 15:16:14

2022-02-15 07:36:21

SQLEXPLAIN數(shù)據(jù)庫

2011-09-14 17:03:17

數(shù)據(jù)庫執(zhí)行計劃解析

2020-05-21 10:02:51

Explain SQL優(yōu)化

2025-03-12 10:55:30

2025-01-24 14:57:24

2021-05-28 10:46:36

MySQL執(zhí)行計劃

2015-04-22 14:17:45

SQL SERVERMSSQL SERVE緩沖區(qū)

2022-08-08 08:03:44

MySQL數(shù)據(jù)庫CBO

2009-11-13 16:28:02

Oracle生成執(zhí)行計

2024-01-05 09:00:00

SpringMVC軟件

2010-04-16 09:27:18

Ocacle執(zhí)行計劃

2022-08-15 15:09:26

SQL數(shù)據(jù)庫MySQL

2009-11-18 17:05:47

捕獲Oracle SQ

2021-04-24 12:01:08

MySQL數(shù)據(jù)庫Mysql執(zhí)行計劃

2020-09-15 08:44:57

MySQL慢日志SQL

2021-09-07 10:43:25

EverDB分布式執(zhí)行

2009-11-10 16:00:05

Oracle執(zhí)行計劃
點贊
收藏

51CTO技術(shù)棧公眾號

北京富婆泄欲对白| 亚洲一级特黄| 九九视频精品免费| 亚洲韩国欧洲国产日产av| 琪琪第一精品导航| www.成人黄色| 不卡的日韩av| 99久久夜色精品国产亚洲96 | 一区在线观看| 国产午夜精品视频| 亚洲 自拍 另类小说综合图区| 青娱乐在线免费视频| 欧美三级午夜理伦三级小说| 亚洲精品日韩综合观看成人91| 国产精品久久久久影院日本| 亚洲自拍偷拍一区二区 | 欧美精品电影免费在线观看| 色天使在线观看| 国产原创av在线| 国产精品久久久久久久久久白浆| 国产精品乱码一区二三区小蝌蚪| 日韩av大片在线| 五月婷婷综合在线观看| 国产免费区一区二区三视频免费| 国产精品美女一区二区三区| 高清国产在线一区| 免费日韩在线视频| 成人av综合网| 无码av中文一区二区三区桃花岛| 国产免费一区二区三区| 亚洲精品1区2区3区| 欧美丝袜美腿| 欧美一区二区三区在线| 宅男av一区二区三区| 一级黄色a毛片| 精品少妇av| 欧美色偷偷大香| 懂色av一区二区三区四区五区| 一级片aaaa| 女主播福利一区| 精品嫩草影院久久| www..com日韩| 香蕉视频网站在线| 久久激情网站| 色噜噜狠狠狠综合曰曰曰| 99九九99九九九99九他书对| 亚洲福利影院| 国产亚洲一本大道中文在线| 国产精品精品视频一区二区三区| 性色国产成人久久久精品| 亚洲欧美在线人成swag| 亚洲最新视频在线播放| 久久福利电影| 中文字幕网址在线| 国产精品久久| 亚洲女人被黑人巨大进入al| 亚洲欧洲日本精品| av每日在线更新| 国产一区二区三区蝌蚪| 97视频在线观看免费| jizz18女人高潮| 久久天堂久久| 一本大道久久a久久综合婷婷| 亚洲午夜精品久久久中文影院av| 午夜精品在线播放| 国产91精品在线观看| 欧美一区二区三区……| 99精品中文字幕| 99热在线成人| 蜜臀久久99精品久久久无需会员| 天堂久久久久久| 日本一区二区三区中文字幕| 高跟丝袜欧美一区| 女同性恋一区二区| 美州a亚洲一视本频v色道| 久久精品免费观看| 97国产精品久久| 天天综合天天干| 99久久精品费精品国产风间由美| 日韩三级影视基地| 偷拍夫妻性生活| 91国内精品| 欧美日本国产一区| 少妇人妻互换不带套| 欧美性爽视频| 欧美国产1区2区| 久久资源亚洲| 亚洲av无码专区在线| 视频福利一区| 日韩欧美精品网址| 亚洲国产成人精品无码区99| 蜜桃麻豆影像在线观看| 亚洲欧洲精品一区二区精品久久久| 超碰97在线播放| 中文字幕一区二区三区四区视频| 精品一区二区在线看| 国模精品一区二区三区| 国产在线一二三区| 亚洲另类在线视频| a级黄色一级片| 99re视频在线播放| 欲色天天网综合久久| 国产精品系列在线播放| 久久久国产精华| 成人精品一区二区三区电影黑人| 久久久久久久久久久影院| 日本伊人色综合网| 久久青草精品视频免费观看| 人人澡人人澡人人看| 精品一区不卡| 久久久久久久久久久国产| 日本黄色一级视频| 日韩精品成人一区二区在线| 奇门遁甲1982国语版免费观看高清| 怡红院男人天堂| 成人美女在线视频| 国产精品区一区二区三在线播放 | 午夜在线小视频| 91视频xxxx| 免费精品视频一区二区三区| 久久精品视频免费看| 国产99久久| 欧美电影一区| 亚洲图片制服诱惑| 免费一级黄色大片| 久久精品国产精品亚洲精品| 国产欧美日韩综合精品二区| 日本美女高清在线观看免费| 欧美日韩国产精品专区 | 日韩在线三级| 国产天堂在线| 欧美国产一区二区| 亚洲一区二区三区精品在线观看 | 久久不见久久见中文字幕免费| 美女av一区二区| 一区二区精品视频在线观看| 久久久精品天堂| 欧美精品99久久| 91禁在线看| 欧美性猛交xxxx黑人| 日本女人性视频| 久久九九精品视频| 色婷婷av一区二区三区久久| 极品国产91在线网站| 99re热视频这里只精品| 欧美日韩在线一二三| av在线免费观看网站| 国产精品久久久久一区 | 日韩成人在线播放| 国产精品成人无码专区| 精品中国亚洲| 一区二区亚洲精品国产| 天天操天天摸天天干| 成人爱爱电影网址| 日韩国产在线一区| 午夜日韩成人影院| 日韩一区二区在线看片| 北岛玲一区二区| 欧美电影《轻佻寡妇》| 国产男女猛烈无遮挡91| 亚洲成熟女性毛茸茸| 亚洲精品老司机| 成人在线看视频| 日韩a级大片| 欧美一级在线亚洲天堂| 亚洲欧美综合一区二区| 精品国产乱码久久久久久天美| www.17c.com喷水少妇| 国产精品色网| 成人免费网站在线看| 久草免费在线观看| 日韩免费一区二区| 免费观看a级片| 欧美天天在线| 国产欧美久久一区二区| 老司机99精品99| 日韩精品一区二区在线| 日韩精品成人在线| 国产美女av一区二区三区| 男女激情免费视频| 色综合视频一区二区三区44| 久久精品国产一区二区电影| 久久久久久久久久久久久av| 久久久久久久久97黄色工厂| 伊人国产在线视频| 欧美精品18| 久久久久综合一区二区三区| 欧美做受喷浆在线观看| 亚洲高清视频免费| 爱久久·www| 蜜桃精品视频| 成人高清在线视频| 欧美亚洲精品日韩| 欧美日韩破处视频| 欧美男生操女生| 中文字幕高清视频| 精品一区免费av| 自慰无码一区二区三区| 国产亚洲电影| 秋霞av国产精品一区| 日本在线人成| 精品久久久久一区| 国产精品高清无码| 国产午夜精品久久久久久免费视| 永久免费的av网站| 亚洲国产一区二区三区高清| 91精品国产一区二区三区动漫 | 在线观看亚洲大片短视频| 国产一区二区中文字幕| 九九九九免费视频| 欧美久久香蕉| 国产日韩欧美成人| 91精彩在线视频| 欧美精品一区二| 日韩 国产 在线| 欧美国产亚洲另类动漫| 800av在线播放| 黑人巨大精品欧美一区| 中文字幕久久综合| 亚洲aaa级| 国产精品igao视频| 黄色在线观看网| 精品成人佐山爱一区二区| 中文字幕资源网| 日韩欧美a级成人黄色| 久久婷婷国产麻豆91| 成人午夜电影小说| 国产精品嫩草影院8vv8| 国产写真视频在线观看| 亚洲午夜久久久久久尤物| 97se在线视频| 外国成人毛片| 国产精品欧美一区二区三区奶水| 美女高潮视频在线看| 色综合视频一区中文字幕| 在线观看免费视频一区| 日韩欧美在线视频免费观看| 久久精品视频6| 久久众筹精品私拍模特| 亚洲视频在线观看一区二区三区| 成人高清电影网站| 成人免费视频97| 国产综合色在线观看| 久久久极品av| 日本高清视频在线观看| 中文字幕亚洲精品| 91精品国产乱码久久久| 91久久精品一区二区三区| 欧美性生给视频| 国产精品女人毛片| 亚洲女同二女同志奶水| 国产成人精品在线看| 日韩精品―中文字幕| 成人性爱视频在线观看| 欧美中文一区二区三区| 国精产品一区一区| 久久超级碰碰| 欧美不卡在线视频| 国产综合在线播放| 色婷婷综合中文久久一本| 欧美一级片免费在线观看| 天天影视网天天综合色在线播放| 精品人妻在线播放| 精品国产999| 日本欧美www| 欧美精品vⅰdeose4hd| 国产熟女精品视频| 欧美日韩亚洲一区二| 国产精品久久久久久久久久久久久久久久久 | 亚洲精品水蜜桃| 国产精品99精品无码视| 狠狠色狠狠色综合日日五| 福利网址在线观看| 欧美日韩你懂得| 精品国产伦一区二区三| 亚洲精品在线一区二区| 噜噜噜噜噜在线视频| 日韩性xxxx爱| 91九色在线播放| 国产精品a久久久久久| 国产精品毛片aⅴ一区二区三区| 成人欧美一区二区三区视频| 日本国产精品| 亚洲欧洲在线一区| 清纯唯美亚洲经典中文字幕| 欧美日韩一区在线视频| 91精品秘密在线观看| 日韩av一区二区三区美女毛片| 成人在线免费观看视频| avove在线观看| 亚洲欧美日韩综合国产aⅴ| 在线观看17c| 99久久99久久精品国产片桃花| 男同互操gay射视频在线看| 99成人免费视频| 大陆av在线播放| 日韩av网站在线观看| 一本之道在线视频| 久久福利视频一区二区| zjzjzjzjzj亚洲女人| 国产精品69久久久久水密桃| 呦呦视频在线观看| 一区免费观看视频| 精品国产免费观看| 宅男在线国产精品| 国产精品人人爽| 91麻豆精品国产91久久久更新时间| 午夜精品无码一区二区三区| 国产亚洲a∨片在线观看| 在线观看wwwxxxx| 欧美成人剧情片在线观看| 深夜福利视频一区二区| 91网站在线看| 一区三区自拍| 亚洲高清在线观看一区| 亚洲精品系列| 亚洲一级片免费观看| 中文字幕精品在线不卡| 欧美日韩精品区| 日韩欧美国产成人一区二区| 最近高清中文在线字幕在线观看| 91av国产在线| 中文在线免费视频| 亚洲free性xxxx护士白浆| 日韩高清一区| 肥熟一91porny丨九色丨| 国产欧美日韩一区二区三区四区| 日韩日韩日韩日韩日韩| 国产高清不卡一区| 国产人与禽zoz0性伦| 色噜噜狠狠色综合欧洲selulu| 人妻一区二区三区免费| 日韩电影在线观看永久视频免费网站| 久久精品视频观看| 国产中文字幕亚洲| 日韩www.| 男人天堂网站在线| 韩国成人福利片在线播放| 中文字幕第24页| 日本韩国精品一区二区在线观看| 五月天激情婷婷| 97久久久久久| 欧洲精品一区| 波多野结衣家庭教师视频| 久久99热国产| 制服丨自拍丨欧美丨动漫丨| 欧美丝袜丝交足nylons| www.色婷婷.com| 美女视频久久黄| 日本成人手机在线| 成人免费a级片| 日韩专区欧美专区| 欧美 日韩 成人| 在线看国产一区二区| 国产私人尤物无码不卡| 国产精品久久久久久久午夜| 精品久久国产| 亚欧激情乱码久久久久久久久| 国产精品美女久久久久久| 亚洲天堂视频网| 久久精品99无色码中文字幕 | 激情偷拍久久| 这里只有精品在线观看视频| 性做久久久久久久免费看| 精品成人无码久久久久久| 国产亚洲欧洲高清一区| 国产资源一区| 穿情趣内衣被c到高潮视频| 国产**成人网毛片九色 | 亚洲精品中文字幕在线播放| 精品久久久久久久久久久| 黄色电影免费在线看| 国产精品欧美日韩久久| 亚洲精品成人无限看| 蜜臀av粉嫩av懂色av| 日本乱码高清不卡字幕| 欧美被日视频| 国产成人高潮免费观看精品| 欧美日韩有码| 人妻激情偷乱视频一区二区三区| 亚洲国产一区视频| 国产巨乳在线观看| 欧美精品久久久久| 国产精品一区二区99| 亚洲黄色片免费看| 午夜影院在线观看欧美| 成年人视频网站在线| 亚洲专区中文字幕| 久久激情中文| 中文字幕亚洲欧美日韩| 欧美日韩成人综合| 男女视频在线| 欧美日韩亚洲综合一区二区三区激情在线 | 欧洲金发美女大战黑人| 99精品视频一区二区| 91免费视频播放| 欧美伊久线香蕉线新在线| 99精品视频在线| 中文字幕在线免费看线人| 欧美日韩的一区二区|